16+
Выходит с 1995 года
16 июля 2024
Фетиш искусственного интеллекта

16 июля отмечается День признания искусственного интеллекта. В этот день предлагаем вниманию читателей статью «Фетиш искусственного интеллекта».

По мере того как экономика и социальные коммуникации оцифровываются, возрастает и роль цифровых технологий. Технологические инновации всегда привлекали к себе внимание: так было и во времена появления паровых машин, и в период электрификации, и в эпоху расцвета электроники. Появление новых технологий приводило к трансформации экономических и общественных отношений, и поэтому часто технологиям приписывали субъектные возможности по переустройству мира. Однако время все расставляет на свои места, и предсказания наподобие «Со временем, телевидение перевернет жизнь всего человечества. Ничего не будет: ни кино, ни театра, ни книг, ни газет — одно сплошное телевидение», как правило, не оправдываются. Технологии находят свою нишу в общей экосистеме научного прогресса и не ломают привычных устоев. Поэтому всегда необходим элемент скепсиса при появлении новых революционных технологий.

Изложенный подход можно было бы применить и к современным цифровым технологиям, долго не обсуждая вопрос о возможных трансформациях, к которым они приводят. Однако цифровые технологии имеют особенность, которая их существенно отличает от остальных технологий. Все новшества, появившиеся в доцифровую эпоху, были призваны повысить производительность труда человека либо облегчить и сделать более комфортной его жизнь. Они преобразовывали окружающую среду, делая ее более удобной для человека, но при этом не затрагивали его сущность и когнитивные возможности. Конечно, совершенствование орудий труда вело к тому, что человечество накапливало новые знания, но эти знания по-прежнему находились в головах людей. Книги были лишь инструментом передачи знаний от человека к человеку, но без человека они не имеют смысла.

Цифровая эпоха дала возможность накапливать знания в цифровом виде. В начале это, как и любое нововведение, лишь облегчало использование знаний человеком, поскольку стало возможным читать книги и статьи с электронных носителей, искать в них информацию. Но по мере развития технологий обработки данных оказалось, что аналитические программы способны настолько глубоко анализировать данные (т.н. data mining), что можно найти в них то, чего не обнаружишь непосредственно в тексте или в данных. Впервые технологии покусились на самое святое — на когнитивные возможности человека. Если технологии смогут хотя бы частично замещать мыслительные способности человека, не означает ли это, что технологии могут получить ту самую субъектность по трансформации общества, которой они ранее никогда не обладали? Этот вопрос сегодня в той или иной мере будоражит умы многих ученых.

Нарастающая волна интереса к ИИ и предвестники шторма

Благодаря увеличению производительности вычислительной техники, успехам в области разработки алгоритмов использования искусственных нейронных сетей (в первую очередь машинного обучения, в особенности глубокого) и появлению инструментов для работы с большими данными технологии искусственного интеллекта (ИИ) перешли из разряда перспективных в разряд самых востребованных технологий. Стоит обратить внимание на то, что существующие технологии ИИ в основном направлены на выполнение задач распознавания, предсказаний, имитации человеческой деятельности и не претендуют на создание реального аналога человеческого интеллекта.

Текущие успехи ограничены решением проблем определенных классов: ИИ все еще нельзя доверить самостоятельное принятие сложных решений, от которых зависит жизнь человека. Однако даже в таком виде ИИ стал широко использоваться в предиктивной аналитике, скоринге, распознавании лиц и игровых приложениях. В 2022 году по прогнозу IDC крупнейшие мировые компании вложат более 430 млрд долларов США в исследования и разработки в области ИИ1. При этом мировой рынок ИИ-технологий составит 554,3 млрд долл. США к 2024 году при среднегодовом темпе роста 17,5% [Прорывные инновации… 2022, 44].

Одновременно с ростом успеха ИИ началась череда принятия стратегий его развития на национальных уровнях. В 2016 году в США Национальным советом по науке и технологиям подготовлены доклады «Подготовка к будущему искусственного интеллекта», «Национальный стратегический план исследований и разработок в области искусственного интеллекта» и «Искусственный интеллект, автоматизация и экономика», определившие стратегию развития ИИ в стране. В июле 2017 года Государственный совет Китая опубликовал «План развития искусственного интеллекта нового поколения», рассчитанный на создание индустрии ИИ и превращение Китая в ведущую державу в области ИИ к 2030 году. В 2018 году на ежегодной встрече в рамках Всемирного экономического форума премьер-министр Великобритании Тереза Мэй объявила, что собирается сделать «Великобританию мировым лидером в области искусственного интеллекта». В 2019 году в России Президентом В.В. Путиным была утверждена «Национальная стратегия развития искусственного интеллекта на период до 2030 года», а позднее, в рамках программы «Цифровая экономика», выделен проект по развитию ИИ. В последние годы набирает оборот новый мировой тренд — разработка общего искусственного интеллекта, который по своим функциям должен приблизиться к решению задач, специфичных для естественного интеллекта, о чем пойдет речь далее в статье.

Блицкриг ИИ в бизнесе и на государственной ниве совпал с протестами и требованиями об ограничении использования инструментов распознавания, которые нарушали права личности и несли риски принятия ошибочных решений. Так, европейские страны уже при подписании в апреле 2018 года Декларации о сотрудничестве в области искусственного интеллекта делали акцент на необходимости учета социальных, экономических, этических и юридических вопросов. В частности, Европейская комиссия учредила группу экспертов, которые опубликовали руководящие принципы этики ИИ в апреле 2019 года. В сентябре 2021 года Совет ОНН по правам человека выпустил доклад с рекомендациями «для государств и предприятий относительно разработки и внедрения гарантий для предотвращения и сведения к минимуму вредных последствий и содействия полному использованию преимуществ, которые может предоставить искусственный интеллект» [The Right to Privacy… 2021]. Руководитель Совета (верховный комиссар ООН по правам человека) Мишель Бачелет, комментируя доклад, призвала ввести мораторий на системы ИИ, которые угрожают правам человека, до тех пор, пока правительства не смогут установить гарантии2.

В докладе Совета ООН по правам человека, в частности, говорится о том, что «процессы принятия решений во многих системах искусственного интеллекта непрозрачны. Сложность информационной среды, алгоритмов и моделей, лежащих в основе разработки и функционирования систем искусственного интеллекта, а также преднамеренная секретность государственных и частных субъектов являются факторами, которые подрывают значимые способы понимания общественностью вопросов влияния систем искусственного интеллекта на права человека» [The Right to Privacy… 2021]. Интересен тот факт, что именно машинное обучение вызывает у защитников прав человека наибольшие опасения, поскольку результат таких вычислений непредсказуем: «Системы машинного обучения добавляют важный элемент непрозрачности; они могут быть способны выявлять закономерности и разрабатывать рецепты, которые трудно или невозможно объяснить. Это часто называют проблемой “черного ящика”. Непрозрачность затрудняет тщательное изучение системы искусственного интеллекта и может стать препятствием для эффективной подотчетности в тех случаях, когда системы искусственного интеллекта наносят ущерб» [The Right to Privacy… 2021]. Кроме того, вызывает большую озабоченность то обстоятельство, что любое машинное обучение очень сильно зависит от тех данных, на которых происходит само обучение. Если эти данные не проверять на соблюдение элементарных этических норм или, что еще хуже, специально подобрать их, чтобы они им противоречили, то системы машинного обучения неизбежно будут выдавать заведомо неэтичные рекомендации.

Главные интересанты и заказчики фетиша ИИ

В этом году в одном из зарубежных изданий опубликована статья «К теории справедливости для искусственного интеллекта» Ясона Габриэля [Gabriel 2022]. Автор работает штатным философом в компании DeepMind, принадлежащей Google. В статье речь идет о разработке гуманистических принципов использования технологий ИИ. Проанализируем философско-методологические основания позиции автора, их влияние на представления о потенциальных последствиях развития ИИ, а также, что особенно важно, о главных интересантах предложенного подхода.

В первую очередь обратим внимание на идеологическую установку автора статьи, опирающегося на труды Джона Ролза, посвященные его теории справедливости [Rawls 1999]. Суть данной установки отражена в следующем: люди заинтересованы в увеличении своей и уменьшении общей доли выгоды. Это — ярко выраженная позиция идеологии социального либерализма. Для того чтобы сформировать представление о роли и месте ИИ, автор предлагает понимать основную структуру общества как совокупность социотехнических систем, функционирование которых складывается под все возрастающим влиянием ИИ. Такое представление об ИИ может быть охарактеризовано как яркое проявление технократического редукционизма в организации социальных процессов. В качестве следствия неявно предлагается нарастающее под влиянием ИИ снижение роли государства и общества. Интересантами таких результатов являются лидеры глобалистского проекта. Но кто именно? Это следует конкретизировать.

Лидерами глобалистского подхода и яркими выразителями, защитниками идеологии западного либерализма выступают в первых рядах именно владельцы гигантских ИТ-корпораций, которые, подобно спруту, охватывают мировое коммуникативное пространство. Владельцы таких компаний, как Facebook*, Twitter, Amazon, Google и др., их наемные теоретики, приписывая системам ИИ качество субъектности, пытаются создать впечатление о том, что они наделены некими «божественными» функциями. Они же не просто разрабатывают новые программные продукты, а создают инструменты, которые способны якобы устанавливать справедливость и защищать права человека. Такие инструменты — утопия. Но прокламирование веры в них, ее имитация служит благодатной почвой для защиты глобалистских идей, а в то же время и сокровенных интересов крупнейших мировых производителей ИТ-технологий. Манипулируя массовым сознанием, используя все формы социальных коммуникаций, все средства ИИ, они заявляют о том, что будут для всех нас «сеять разумное, доброе, вечное». Неслучайно основатель Facebook* Марк Цукерберг решил на базе своих ИТ-продуктов создавать т.н. метавселенную, в которой будет построена новая, более правильная и благополучная жизнь. Однако крайне трудно допустить мысль о том, что Марк Цукерберг действительно озадачен настолько высокими гуманистическими устремлениями. Судя по его бизнес-деятельности и его опыту манипуляции массовым сознанием в целях достижения максимальной прибыли, сказки о «метавселенной» служат лишь маскировкой для осуществления этих же целей.

Глобалистский подход, опирающийся на идеологию западного либерализма с его псевдогуманистическими клише, убедительно показал свою несостоятельность в условиях пандемии COVID-19 [Лепский 2020] и тем самым продемонстрировал свою негативную роль в деле оценки и разработки способов преодоления нарастающих угроз для человечества, в том числе угроз, связанных с цифровыми трансформациями и развитием ИИ.

Перспективы ИИ в контексте глобального кризиса мировой цивилизации

Именно этот контекст рассмотрения процесса развития ИИ и его социальной значимости, отодвигаемый часто на дальний план (особенно в публикациях, подобных упомянутой выше), приобретает сегодня первостепенное, судьбоносное значение для человечества. Неуклонное нарастание глобального кризиса нашей потребительской цивилизации ведет к разжиганию все более масштабных экономических, политических, всевозможных социальных конфликтов, бескомпромиссной борьбы за ресурсы, за сферы влияния и в конечном итоге — за передел мировой структуры социально-экономической и политической самоорганизации в целом. В этой связи ИИ становится инструментом борьбы в противостоянии различных сил.

Особое внимание привлекает задача создания общего искусственного интеллекта (ОИИ). Ее решение стало в последние годы предметом конкуренции между крупнейшими бигтехами, а в более широком понимании — между государствами-лидерами в области ИИ, в числе которых находятся наши стратегические противники. Это обязывает нас максимально сконцентрировать усилия в данном направлении и добиваться опережения конкурентов. В прошлом году в России вышла первая книга, посвященная специфической проблематике ОИИ [Сильный искусственный интеллект… 2021]. В ней подробно проанализированы главные теоретические и методологические вопросы в области разработки ОИИ и необходимые для этого научные подходы, обозначены его специфические функции, которые должны быть созданы и, что особенно интересно, предполагаемые масштабные перемены, которые он способен произвести в нарождающемся мироустройстве.

Авторы выделяют две главные способности ОИИ, которые характерны для естественного интеллекта. В отличие от т.н. узкого ИИ, решающего одну определенную задачу, он должен быть интегральным, т.е. способным решать много разных задач. И он должен обрести качество автономности, т.е. способность самостоятельно и эффективно действовать в широком диапазоне сред. Все это качественно повышает деятельные возможности систем ИИ, их использование для военной техники и военных действий, для решения задач производства, управления, планирования, организации экономических процессов, оптимизации самых разнообразных сфер общественной жизни и научных исследований, что чрезвычайно важно для нашей страны в нынешних условиях. Это не менее значимо для осмысления и осуществления грядущих исторических изменений в развитии земной цивилизации, связанных с крушением принципа и практики монополярного мира.

Вместе с тем развитие ОИИ ставит новые сложные теоретические вопросы о его взаимодействии с естественным интеллектом, создании и перспективах гибридного интеллекта, возможном состязании с естественным интеллектом, возможных рисках и угрозах для человека и общества. Достижение высокой степени автономности общим интеллектом создает вероятность появления таких видов и способов его «самодеятельности», которые могут представлять опасность для человека и общества, потребуют разработки новых методов обеспечения безопасности. Перед нами окажется новый аспект все той же проблемы субъектности систем ИИ, сохраняющей свою высокую актуальность.

ИИ — это субъект или агент, контролируемый субъектами естественного интеллекта?

Обратимся еще раз к истолкованиям теоретических вопросов о субъектности систем ИИ по отношению к реальным человеческим субъектам. Подход Ясона Габриэля, автора упомянутой выше статьи [Gabriel 2022], заключается в том, чтобы перенести на ИИ такие же принципы, которые установлены для людей. Автор пишет о том, что «ИИ все больше формирует элементы базовой структуры общества», и, «следовательно, его проектирование, разработка и развертывание потенциально взаимодействуют с принципами правосудия». По мнению Габриэля, «ИИ взаимодействует с поведением людей, принимающих решения, и формирует характер этих практик, включая распределение выгод и бремени среди населения» [Gabriel 2022].

Таким образом, у автора технологии будто «оживают». Он пишет: «Для нашей цели важно учесть, что в современных обществах фоновая справедливость все больше осуществляется алгоритмически» [Gabriel 2022]. Вводя понятие фоновой (видимо, массовой) справедливости, неявно предполагается, что эту справедливость осуществляет алгоритм. Автор продолжает: «Делая оценки или прогнозы на основе прошлого выбора человека и предоставляя решения или рекомендации, которые затем формируют набор возможностей, доступных этому человеку в будущем, эти системы сильно влияют на разворачивающуюся взаимосвязь между индивидуальным выбором и коллективными результатами» [Gabriel 2022]. Снова неявно предполагается, как системы что-то «разумно» делают и что-то предоставляют. Автор придает субъектность технологиям ИИ и требует распространить законы социальных отношений на использование ИИ, которое должно «поддерживать основные свободы граждан, способствовать справедливому равенству возможностей и приносить наибольшую пользу тем, кто находится в наихудшем положении» [Gabriel 2022].

Такого рода антропоморфный подход к ИИ чреват существенными последствиями. Перенося субъектность на ИИ, неявно снимается ответственность с человека, который применяет эту технологию, что нивелирует законодательную практику. Любая технология несовершенна, и она не может сама по себе принимать решение. Ошибка в работе детектора лжи никогда не будет равна нулю, как и при использовании ИИ. Задача людей состоит в том, чтобы учесть ограничения технологий, а не пытаться просто их поставить в какие-то заданные рамки. Неслучайно в судебной практике при всех возможностях криминалистики окончательное решение принимают люди. Системы ИИ ничем не отличаются от других технологий. Поэтому технологии не должны снимать ответственность с человека, а следовательно, не должны обладать человеческими характеристиками, т.е. быть справедливыми, гуманными и т.д.

Успехи ИИ оказались настолько значительными, что многие решили, что эта технология может заменить человека, только нужно ее поставить в определенные рамки. Фактически ИИ стал фетишем XXI века, который одни стали превозносить как наше будущее, а другие начали вести с ним борьбу. В действительности ИИ, хотя и может распознать то, что не удается человеческому взгляду, или выявить корреляцию, которую не может найти человек, вместе с тем остается далеким от реальных когнитивных возможностей человека. Не исключено, что в будущем удастся создать ИИ, интегрированный в социальную среду, т.н. сильный ИИ, но пока мы далеки от этого, и придавать ему субъектность не только неправильно, но опасно.

Этические вопросы развития ИИ

Вопросы этики использования ИИ широко обсуждаются сегодня как общественными деятелями, политиками, так и учеными. Большое внимание привлек скандал, возникший в связи со статьей об этике ИИ, подготовленной к публикации сотрудником компании Google Тимнит Гебру, одним из ведущих мировых экспертов по проблемам необъективности алгоритмов и извлечения данных (data mining) [Hao 2020]. Научные и коммерческие позиции принципиально разошлись, и, как следствие, исследовательница покинула компанию Google.

Дискуссии ведутся и среди российских ученых. Наряду с конструктивными предложениями отдельные авторитетные ученые предлагают сомнительные идеи, призывают к политизации науки и технологий, наделяя технологии свойствами «патриотизма». Так, 23 ноября 2021 года состоялось заседание Президиума Российской академии наук, на которой академики обсуждали в том числе и этическую сторону ИИ, и возможности для ИИ быть доверенным. Один из выступающих заявил: «С моей точки зрения, ИИ должен быть не только доверенным, о чем сегодня говорилось, но и патриотичным, т.е. он должен в первую очередь работать на интересы страны, а не против нее» [Славин 2021, 34].

Сегодня многие протестуют против технологий распознавания лиц (в некоторых городах США такое распознавание запрещено, Европарламент тоже предложил запретить технологии распознавания лиц). Однако вредно не распознавание как таковое, а использование его в противоправных целях. Человек не скрывает свои болезни перед врачом потому, что доверяет ему и рассчитывает на помощь. Необходимо регулировать законы применения технологий, в том числе и ИИ, серьезно наказывать, если они были использованы во вред человеку или незаконно. Россия сегодня оказалась во многом слабо защищенной перед мошенниками, которые используют средства коммуникаций для обмана доверчивых граждан. Все, что сегодня власть может сделать, — это предупреждать население о новых способах мошенничества. При этом власть вполне эффективно, в том числе и с использованием ИИ, борется с политическими противниками. Этические проблемы ИИ должны решать не путем ограничения технологий, а в первую очередь путем ограничения действий людей, которые их неправомерно используют.

Решение этических вопросов применения ИИ — очень сложное, комплексное дело, которое невозможно выполнить лишь посредством принятия декларативных кодексов этики ИИ. Необходимо учитывать, что даже наши этические принципы — от библейских заповедей до кодекса строителя коммунизма — есть лишь точки в бесконечном пространстве морально-этических решений, в котором мы движемся ежедневно. Дискуссии об этике ИИ только начинают разворачиваться, и сообщества философов, инженеров должны тесно сотрудничать для выработки ответов на вызовы времени.

Сегодня крайне важно рассматривать этические проблемы применительно к развитию ИИ в более широком концептуальном плане: под углом реальных особенностей функционирования этических норм в социальной жизнедеятельности, реального состояния нравственности массового сознания, индивидуальных, групповых, институциональных субъектов. Сплошь и рядом, всегда, на всех этапах истории человечества ясно наблюдался разрыв между знанием этических норм и их исполнением. Вспомним древнеримскую поговорку: «Вижу лучшее и одобряю, но следую худшему». Слишком часто интерес оказывался выше нравственных установлений, а обман подавлял правду и вил себе уютные гнезда в самых высоких этических наставлениях. Говорить о нравственном прогрессе в развитии человечества нет достаточных оснований (обстоятельные материалы, посвященные данной теме, представлены во множестве философских исследований [Дубровский 2007]). Все эти обстоятельства следует учитывать, если мы рассуждаем на тему «Этика ИИ», причем как в отношении создателей систем ИИ, так и в отношении пользователей.

При попытках моделирования принципов этики и воплощения их в работе ИИ ситуация осложняется тем, что совокупность этических норм не может быть упорядочена в виде четкой иерархической структуры, допускающей альтернативный выбор. Выбор практически всегда может быть сделан лишь при рассмотрении и оценке конкретных условий. Поэтому указанное моделирование представляется возможным только в специально определенных частных случаях.

Вместе с тем проблема субъектности в области разработок ИИ по-прежнему заслуживает пристального внимания. Так или иначе способность системы ИИ решать сложные задачи мы связываем с описаниями некоторых функций естественного интеллекта. Если ИИ нецелесообразно представлять в качестве субъекта, аналогичного человеку, то как понимать и определять ИИ, которому передаются возможности принятия решений в определенных ситуациях и который побеждает чемпиона мира по шахматам или игре в го? Наиболее адекватным подходом, на наш взгляд, может быть представление ИИ как агента, наделенного набором инвариантных упрощенных качеств, которыми обладают естественные субъекты. К таким качествам можно отнести подобие целеустремленности, своего рода рефлексивность, коммуникативность и упрощенные элементы социальности. Представление ИИ как агента (псевдосубъекта) согласуется с принципом распределенного управления в биологии и психологии, который был назван принципом двойного субъекта [Лепский 1998]. Это представление ИИ в сочетании с системами принципов и онтологий, задаваемых в концепции постнеклассической кибернетики саморазвивающихся сред, позволяет использовать ИИ как средство социальных инноваций, при сохранении контроля над технологиями ИИ, а также ставить и решать проблему интеграции образований искусственного и естественного интеллекта при сохранении базовых качеств носителей естественного интеллекта [Lepskiy 2018; Лепский 2021].

Заключение

ИИ переживает фазу бурного роста. Масштабные цифры эффектов от внедрения не должны вводить нас в заблуждение: нынешний период — это лишь начало тотального проникновения ИИ в нашу жизнь. Именно поэтому нам следует очень внимательно относиться к возможным когнитивным искажениям при исследованиях возникающих феноменов. К примеру, антропоморфизм в применении к ИИ может заставить нас легко поверить в ложную субъектность машины. Настоящая работа авторов, специалистов в философии и методологии, служит призывом к более широкому диалогу и переходу от создания кодексов поведения ИИ к созданию следующего поколения ИИ, действующего вместе с человеком и для человека.

Сноски

1 IDC Forecasts Companies to Increase Spend on AI Solutions by 19.6% in 2022 // IDC. 15 February 2022. – URL: https://www.idc.com/getdoc.jsp?containerId=prUS48881422

2 Мишель Бачелет призвала ввести мораторий на использование систем искусственного интеллекта // Новости ООН. 15 сентября 2021. – URL: https://news.un.org/ru/tags/iskusstvennyy-intellekt/date/2021-09

Работа поддержана Российским научным фондом (РНФ), грант №21-18-00184 «Социогуманитарные основания критериев оценки инноваций, использующих цифровые технологии и искусственный интеллект».

Цитируемая литература

  1. Дубровский 2007 – Дубровский Д.И. О нравственном прогрессе и нравственном регрессе (К проблематике развития морального сознания) // Философские науки. 2007. № 11. С. 81−102.
  2. Дубровский 2021 – Дубровский Д.И. Задача создания Общего искусственного интеллекта и проблема сознания // Философские науки. 2021. Т. 64. № 1. С. 13−44.
  3. Лепский 1998 – Лепский В.Е. Концепция субъектно-ориентированной компьютеризации управленческой деятельности. − М.: Институт психологии РАН, 1998.
  4. Лепский 2020 – Лепский В.Е. Рефлексия пандемии COVID-19: субъектно-ориентированный подход // Экономические стратегии. 2020. № 8 (174). С. 66−71.
  5. Лепский 2021 − Лепский В.Е. Искусственный интеллект в субъектных парадигмах управления // Философские науки. 2021. Т. 64. № 1. С. 88–101.
  6. Прорывные инновации… 2022 – Прорывные инновации: человек 2.0: доклад к XXIII Ясинской (Апрельской) международной научной конференции по проблемам развития экономики и общества, Москва, 4–8 апреля 2022 г. / под ред. Л.М. Гохберга, А.Р. Ефимова, Ю.В. Мильшиной. – М.: НИУ ВШЭ, 2022.
  7. Сильный искусственный интеллект… 2021 – Сильный искусственный интеллект: На подступах к сверхразуму / А. Ведяхин и др. − М.: Интеллектуальная литература, 2021.
  8. Славин 2021 − Славин Б.Б. Может ли искусственный интеллект быть справедливым // БИТ. 2021. № 10 (113). С. 32−35.
  9. Gabriel 2022 − Gabriel I. Toward a Theory of Justice for Artificial Intelligence // AI & Society. 2022. Vol. 151. No. 2. P. 218−231.
  10. Hao 2020 – Hao K. We read the paper that forced Timnit Gebru out of Google. Here’s what it says // MIT Technology Review. 4 December 2020. – URL: https://www.technologyreview.com/2020/12/04/1013294/google-aiethics-research-paper-forced-out-timnit-gebru/
  11. Lepskiy 2018 – Lepskiy V. Evolution of Cybernetics: Philosophical and Methodological Analysis // Kybernetes. 2018. Vol. 47. No. 2. P. 249–261.
  12. Rawls 1999 − Rawls J. A Theory of Justice. − Cambridge, MA: Harvard University Press, 1999.
  13. The Right to Privacy… 2021 − The Right to Privacy in the Digital Age: Report of the United Nations High Commissioner for Human Rights. A/ HRC/48/31 // Office of the High Commissioner for Human Rights. 13 September 2021. − URL: https://www.ohchr.org/en/documents/thematic-reports/ahrc4831-right-privacy-digital-age-report-united-nations-high

Источник: Дубровский Д.И., Ефимов А.Р., Лепский В.Е., Славин Б.Б. Фетиш искусственного интеллекта // Философские науки. 2022. Том 65. №1. С. 44–71. DOI: 10.30727/0235-1188-2022-65-1-44-71

* Социальная сеть Facebook запрещена в России, принадлежит компании Meta, признанной экстремистской организацией и запрещенной в России (прим. ред.).

Комментарии

Комментариев пока нет – Вы можете оставить первый

, чтобы комментировать

Публикации

Все публикации

Хотите получать подборку новых материалов каждую неделю?

Оформите бесплатную подписку на «Психологическую газету»