16 июля отмечается День признания искусственного интеллекта. В этот день предлагаем вниманию читателей статью «Фетиш искусственного интеллекта».
По мере того как экономика и социальные коммуникации оцифровываются, возрастает и роль цифровых технологий. Технологические инновации всегда привлекали к себе внимание: так было и во времена появления паровых машин, и в период электрификации, и в эпоху расцвета электроники. Появление новых технологий приводило к трансформации экономических и общественных отношений, и поэтому часто технологиям приписывали субъектные возможности по переустройству мира. Однако время все расставляет на свои места, и предсказания наподобие «Со временем, телевидение перевернет жизнь всего человечества. Ничего не будет: ни кино, ни театра, ни книг, ни газет — одно сплошное телевидение», как правило, не оправдываются. Технологии находят свою нишу в общей экосистеме научного прогресса и не ломают привычных устоев. Поэтому всегда необходим элемент скепсиса при появлении новых революционных технологий.
Изложенный подход можно было бы применить и к современным цифровым технологиям, долго не обсуждая вопрос о возможных трансформациях, к которым они приводят. Однако цифровые технологии имеют особенность, которая их существенно отличает от остальных технологий. Все новшества, появившиеся в доцифровую эпоху, были призваны повысить производительность труда человека либо облегчить и сделать более комфортной его жизнь. Они преобразовывали окружающую среду, делая ее более удобной для человека, но при этом не затрагивали его сущность и когнитивные возможности. Конечно, совершенствование орудий труда вело к тому, что человечество накапливало новые знания, но эти знания по-прежнему находились в головах людей. Книги были лишь инструментом передачи знаний от человека к человеку, но без человека они не имеют смысла.
Цифровая эпоха дала возможность накапливать знания в цифровом виде. В начале это, как и любое нововведение, лишь облегчало использование знаний человеком, поскольку стало возможным читать книги и статьи с электронных носителей, искать в них информацию. Но по мере развития технологий обработки данных оказалось, что аналитические программы способны настолько глубоко анализировать данные (т.н. data mining), что можно найти в них то, чего не обнаружишь непосредственно в тексте или в данных. Впервые технологии покусились на самое святое — на когнитивные возможности человека. Если технологии смогут хотя бы частично замещать мыслительные способности человека, не означает ли это, что технологии могут получить ту самую субъектность по трансформации общества, которой они ранее никогда не обладали? Этот вопрос сегодня в той или иной мере будоражит умы многих ученых.
Нарастающая волна интереса к ИИ и предвестники шторма
Благодаря увеличению производительности вычислительной техники, успехам в области разработки алгоритмов использования искусственных нейронных сетей (в первую очередь машинного обучения, в особенности глубокого) и появлению инструментов для работы с большими данными технологии искусственного интеллекта (ИИ) перешли из разряда перспективных в разряд самых востребованных технологий. Стоит обратить внимание на то, что существующие технологии ИИ в основном направлены на выполнение задач распознавания, предсказаний, имитации человеческой деятельности и не претендуют на создание реального аналога человеческого интеллекта.
Текущие успехи ограничены решением проблем определенных классов: ИИ все еще нельзя доверить самостоятельное принятие сложных решений, от которых зависит жизнь человека. Однако даже в таком виде ИИ стал широко использоваться в предиктивной аналитике, скоринге, распознавании лиц и игровых приложениях. В 2022 году по прогнозу IDC крупнейшие мировые компании вложат более 430 млрд долларов США в исследования и разработки в области ИИ1. При этом мировой рынок ИИ-технологий составит 554,3 млрд долл. США к 2024 году при среднегодовом темпе роста 17,5% [Прорывные инновации… 2022, 44].
Одновременно с ростом успеха ИИ началась череда принятия стратегий его развития на национальных уровнях. В 2016 году в США Национальным советом по науке и технологиям подготовлены доклады «Подготовка к будущему искусственного интеллекта», «Национальный стратегический план исследований и разработок в области искусственного интеллекта» и «Искусственный интеллект, автоматизация и экономика», определившие стратегию развития ИИ в стране. В июле 2017 года Государственный совет Китая опубликовал «План развития искусственного интеллекта нового поколения», рассчитанный на создание индустрии ИИ и превращение Китая в ведущую державу в области ИИ к 2030 году. В 2018 году на ежегодной встрече в рамках Всемирного экономического форума премьер-министр Великобритании Тереза Мэй объявила, что собирается сделать «Великобританию мировым лидером в области искусственного интеллекта». В 2019 году в России Президентом В.В. Путиным была утверждена «Национальная стратегия развития искусственного интеллекта на период до 2030 года», а позднее, в рамках программы «Цифровая экономика», выделен проект по развитию ИИ. В последние годы набирает оборот новый мировой тренд — разработка общего искусственного интеллекта, который по своим функциям должен приблизиться к решению задач, специфичных для естественного интеллекта, о чем пойдет речь далее в статье.
Блицкриг ИИ в бизнесе и на государственной ниве совпал с протестами и требованиями об ограничении использования инструментов распознавания, которые нарушали права личности и несли риски принятия ошибочных решений. Так, европейские страны уже при подписании в апреле 2018 года Декларации о сотрудничестве в области искусственного интеллекта делали акцент на необходимости учета социальных, экономических, этических и юридических вопросов. В частности, Европейская комиссия учредила группу экспертов, которые опубликовали руководящие принципы этики ИИ в апреле 2019 года. В сентябре 2021 года Совет ОНН по правам человека выпустил доклад с рекомендациями «для государств и предприятий относительно разработки и внедрения гарантий для предотвращения и сведения к минимуму вредных последствий и содействия полному использованию преимуществ, которые может предоставить искусственный интеллект» [The Right to Privacy… 2021]. Руководитель Совета (верховный комиссар ООН по правам человека) Мишель Бачелет, комментируя доклад, призвала ввести мораторий на системы ИИ, которые угрожают правам человека, до тех пор, пока правительства не смогут установить гарантии2.
В докладе Совета ООН по правам человека, в частности, говорится о том, что «процессы принятия решений во многих системах искусственного интеллекта непрозрачны. Сложность информационной среды, алгоритмов и моделей, лежащих в основе разработки и функционирования систем искусственного интеллекта, а также преднамеренная секретность государственных и частных субъектов являются факторами, которые подрывают значимые способы понимания общественностью вопросов влияния систем искусственного интеллекта на права человека» [The Right to Privacy… 2021]. Интересен тот факт, что именно машинное обучение вызывает у защитников прав человека наибольшие опасения, поскольку результат таких вычислений непредсказуем: «Системы машинного обучения добавляют важный элемент непрозрачности; они могут быть способны выявлять закономерности и разрабатывать рецепты, которые трудно или невозможно объяснить. Это часто называют проблемой “черного ящика”. Непрозрачность затрудняет тщательное изучение системы искусственного интеллекта и может стать препятствием для эффективной подотчетности в тех случаях, когда системы искусственного интеллекта наносят ущерб» [The Right to Privacy… 2021]. Кроме того, вызывает большую озабоченность то обстоятельство, что любое машинное обучение очень сильно зависит от тех данных, на которых происходит само обучение. Если эти данные не проверять на соблюдение элементарных этических норм или, что еще хуже, специально подобрать их, чтобы они им противоречили, то системы машинного обучения неизбежно будут выдавать заведомо неэтичные рекомендации.
Главные интересанты и заказчики фетиша ИИ
В этом году в одном из зарубежных изданий опубликована статья «К теории справедливости для искусственного интеллекта» Ясона Габриэля [Gabriel 2022]. Автор работает штатным философом в компании DeepMind, принадлежащей Google. В статье речь идет о разработке гуманистических принципов использования технологий ИИ. Проанализируем философско-методологические основания позиции автора, их влияние на представления о потенциальных последствиях развития ИИ, а также, что особенно важно, о главных интересантах предложенного подхода.
В первую очередь обратим внимание на идеологическую установку автора статьи, опирающегося на труды Джона Ролза, посвященные его теории справедливости [Rawls 1999]. Суть данной установки отражена в следующем: люди заинтересованы в увеличении своей и уменьшении общей доли выгоды. Это — ярко выраженная позиция идеологии социального либерализма. Для того чтобы сформировать представление о роли и месте ИИ, автор предлагает понимать основную структуру общества как совокупность социотехнических систем, функционирование которых складывается под все возрастающим влиянием ИИ. Такое представление об ИИ может быть охарактеризовано как яркое проявление технократического редукционизма в организации социальных процессов. В качестве следствия неявно предлагается нарастающее под влиянием ИИ снижение роли государства и общества. Интересантами таких результатов являются лидеры глобалистского проекта. Но кто именно? Это следует конкретизировать.
Лидерами глобалистского подхода и яркими выразителями, защитниками идеологии западного либерализма выступают в первых рядах именно владельцы гигантских ИТ-корпораций, которые, подобно спруту, охватывают мировое коммуникативное пространство. Владельцы таких компаний, как Facebook*, Twitter, Amazon, Google и др., их наемные теоретики, приписывая системам ИИ качество субъектности, пытаются создать впечатление о том, что они наделены некими «божественными» функциями. Они же не просто разрабатывают новые программные продукты, а создают инструменты, которые способны якобы устанавливать справедливость и защищать права человека. Такие инструменты — утопия. Но прокламирование веры в них, ее имитация служит благодатной почвой для защиты глобалистских идей, а в то же время и сокровенных интересов крупнейших мировых производителей ИТ-технологий. Манипулируя массовым сознанием, используя все формы социальных коммуникаций, все средства ИИ, они заявляют о том, что будут для всех нас «сеять разумное, доброе, вечное». Неслучайно основатель Facebook* Марк Цукерберг решил на базе своих ИТ-продуктов создавать т.н. метавселенную, в которой будет построена новая, более правильная и благополучная жизнь. Однако крайне трудно допустить мысль о том, что Марк Цукерберг действительно озадачен настолько высокими гуманистическими устремлениями. Судя по его бизнес-деятельности и его опыту манипуляции массовым сознанием в целях достижения максимальной прибыли, сказки о «метавселенной» служат лишь маскировкой для осуществления этих же целей.
Глобалистский подход, опирающийся на идеологию западного либерализма с его псевдогуманистическими клише, убедительно показал свою несостоятельность в условиях пандемии COVID-19 [Лепский 2020] и тем самым продемонстрировал свою негативную роль в деле оценки и разработки способов преодоления нарастающих угроз для человечества, в том числе угроз, связанных с цифровыми трансформациями и развитием ИИ.
Перспективы ИИ в контексте глобального кризиса мировой цивилизации
Именно этот контекст рассмотрения процесса развития ИИ и его социальной значимости, отодвигаемый часто на дальний план (особенно в публикациях, подобных упомянутой выше), приобретает сегодня первостепенное, судьбоносное значение для человечества. Неуклонное нарастание глобального кризиса нашей потребительской цивилизации ведет к разжиганию все более масштабных экономических, политических, всевозможных социальных конфликтов, бескомпромиссной борьбы за ресурсы, за сферы влияния и в конечном итоге — за передел мировой структуры социально-экономической и политической самоорганизации в целом. В этой связи ИИ становится инструментом борьбы в противостоянии различных сил.
Особое внимание привлекает задача создания общего искусственного интеллекта (ОИИ). Ее решение стало в последние годы предметом конкуренции между крупнейшими бигтехами, а в более широком понимании — между государствами-лидерами в области ИИ, в числе которых находятся наши стратегические противники. Это обязывает нас максимально сконцентрировать усилия в данном направлении и добиваться опережения конкурентов. В прошлом году в России вышла первая книга, посвященная специфической проблематике ОИИ [Сильный искусственный интеллект… 2021]. В ней подробно проанализированы главные теоретические и методологические вопросы в области разработки ОИИ и необходимые для этого научные подходы, обозначены его специфические функции, которые должны быть созданы и, что особенно интересно, предполагаемые масштабные перемены, которые он способен произвести в нарождающемся мироустройстве.
Авторы выделяют две главные способности ОИИ, которые характерны для естественного интеллекта. В отличие от т.н. узкого ИИ, решающего одну определенную задачу, он должен быть интегральным, т.е. способным решать много разных задач. И он должен обрести качество автономности, т.е. способность самостоятельно и эффективно действовать в широком диапазоне сред. Все это качественно повышает деятельные возможности систем ИИ, их использование для военной техники и военных действий, для решения задач производства, управления, планирования, организации экономических процессов, оптимизации самых разнообразных сфер общественной жизни и научных исследований, что чрезвычайно важно для нашей страны в нынешних условиях. Это не менее значимо для осмысления и осуществления грядущих исторических изменений в развитии земной цивилизации, связанных с крушением принципа и практики монополярного мира.
Вместе с тем развитие ОИИ ставит новые сложные теоретические вопросы о его взаимодействии с естественным интеллектом, создании и перспективах гибридного интеллекта, возможном состязании с естественным интеллектом, возможных рисках и угрозах для человека и общества. Достижение высокой степени автономности общим интеллектом создает вероятность появления таких видов и способов его «самодеятельности», которые могут представлять опасность для человека и общества, потребуют разработки новых методов обеспечения безопасности. Перед нами окажется новый аспект все той же проблемы субъектности систем ИИ, сохраняющей свою высокую актуальность.
ИИ — это субъект или агент, контролируемый субъектами естественного интеллекта?
Обратимся еще раз к истолкованиям теоретических вопросов о субъектности систем ИИ по отношению к реальным человеческим субъектам. Подход Ясона Габриэля, автора упомянутой выше статьи [Gabriel 2022], заключается в том, чтобы перенести на ИИ такие же принципы, которые установлены для людей. Автор пишет о том, что «ИИ все больше формирует элементы базовой структуры общества», и, «следовательно, его проектирование, разработка и развертывание потенциально взаимодействуют с принципами правосудия». По мнению Габриэля, «ИИ взаимодействует с поведением людей, принимающих решения, и формирует характер этих практик, включая распределение выгод и бремени среди населения» [Gabriel 2022].
Таким образом, у автора технологии будто «оживают». Он пишет: «Для нашей цели важно учесть, что в современных обществах фоновая справедливость все больше осуществляется алгоритмически» [Gabriel 2022]. Вводя понятие фоновой (видимо, массовой) справедливости, неявно предполагается, что эту справедливость осуществляет алгоритм. Автор продолжает: «Делая оценки или прогнозы на основе прошлого выбора человека и предоставляя решения или рекомендации, которые затем формируют набор возможностей, доступных этому человеку в будущем, эти системы сильно влияют на разворачивающуюся взаимосвязь между индивидуальным выбором и коллективными результатами» [Gabriel 2022]. Снова неявно предполагается, как системы что-то «разумно» делают и что-то предоставляют. Автор придает субъектность технологиям ИИ и требует распространить законы социальных отношений на использование ИИ, которое должно «поддерживать основные свободы граждан, способствовать справедливому равенству возможностей и приносить наибольшую пользу тем, кто находится в наихудшем положении» [Gabriel 2022].
Такого рода антропоморфный подход к ИИ чреват существенными последствиями. Перенося субъектность на ИИ, неявно снимается ответственность с человека, который применяет эту технологию, что нивелирует законодательную практику. Любая технология несовершенна, и она не может сама по себе принимать решение. Ошибка в работе детектора лжи никогда не будет равна нулю, как и при использовании ИИ. Задача людей состоит в том, чтобы учесть ограничения технологий, а не пытаться просто их поставить в какие-то заданные рамки. Неслучайно в судебной практике при всех возможностях криминалистики окончательное решение принимают люди. Системы ИИ ничем не отличаются от других технологий. Поэтому технологии не должны снимать ответственность с человека, а следовательно, не должны обладать человеческими характеристиками, т.е. быть справедливыми, гуманными и т.д.
Успехи ИИ оказались настолько значительными, что многие решили, что эта технология может заменить человека, только нужно ее поставить в определенные рамки. Фактически ИИ стал фетишем XXI века, который одни стали превозносить как наше будущее, а другие начали вести с ним борьбу. В действительности ИИ, хотя и может распознать то, что не удается человеческому взгляду, или выявить корреляцию, которую не может найти человек, вместе с тем остается далеким от реальных когнитивных возможностей человека. Не исключено, что в будущем удастся создать ИИ, интегрированный в социальную среду, т.н. сильный ИИ, но пока мы далеки от этого, и придавать ему субъектность не только неправильно, но опасно.
Этические вопросы развития ИИ
Вопросы этики использования ИИ широко обсуждаются сегодня как общественными деятелями, политиками, так и учеными. Большое внимание привлек скандал, возникший в связи со статьей об этике ИИ, подготовленной к публикации сотрудником компании Google Тимнит Гебру, одним из ведущих мировых экспертов по проблемам необъективности алгоритмов и извлечения данных (data mining) [Hao 2020]. Научные и коммерческие позиции принципиально разошлись, и, как следствие, исследовательница покинула компанию Google.
Дискуссии ведутся и среди российских ученых. Наряду с конструктивными предложениями отдельные авторитетные ученые предлагают сомнительные идеи, призывают к политизации науки и технологий, наделяя технологии свойствами «патриотизма». Так, 23 ноября 2021 года состоялось заседание Президиума Российской академии наук, на которой академики обсуждали в том числе и этическую сторону ИИ, и возможности для ИИ быть доверенным. Один из выступающих заявил: «С моей точки зрения, ИИ должен быть не только доверенным, о чем сегодня говорилось, но и патриотичным, т.е. он должен в первую очередь работать на интересы страны, а не против нее» [Славин 2021, 34].
Сегодня многие протестуют против технологий распознавания лиц (в некоторых городах США такое распознавание запрещено, Европарламент тоже предложил запретить технологии распознавания лиц). Однако вредно не распознавание как таковое, а использование его в противоправных целях. Человек не скрывает свои болезни перед врачом потому, что доверяет ему и рассчитывает на помощь. Необходимо регулировать законы применения технологий, в том числе и ИИ, серьезно наказывать, если они были использованы во вред человеку или незаконно. Россия сегодня оказалась во многом слабо защищенной перед мошенниками, которые используют средства коммуникаций для обмана доверчивых граждан. Все, что сегодня власть может сделать, — это предупреждать население о новых способах мошенничества. При этом власть вполне эффективно, в том числе и с использованием ИИ, борется с политическими противниками. Этические проблемы ИИ должны решать не путем ограничения технологий, а в первую очередь путем ограничения действий людей, которые их неправомерно используют.
Решение этических вопросов применения ИИ — очень сложное, комплексное дело, которое невозможно выполнить лишь посредством принятия декларативных кодексов этики ИИ. Необходимо учитывать, что даже наши этические принципы — от библейских заповедей до кодекса строителя коммунизма — есть лишь точки в бесконечном пространстве морально-этических решений, в котором мы движемся ежедневно. Дискуссии об этике ИИ только начинают разворачиваться, и сообщества философов, инженеров должны тесно сотрудничать для выработки ответов на вызовы времени.
Сегодня крайне важно рассматривать этические проблемы применительно к развитию ИИ в более широком концептуальном плане: под углом реальных особенностей функционирования этических норм в социальной жизнедеятельности, реального состояния нравственности массового сознания, индивидуальных, групповых, институциональных субъектов. Сплошь и рядом, всегда, на всех этапах истории человечества ясно наблюдался разрыв между знанием этических норм и их исполнением. Вспомним древнеримскую поговорку: «Вижу лучшее и одобряю, но следую худшему». Слишком часто интерес оказывался выше нравственных установлений, а обман подавлял правду и вил себе уютные гнезда в самых высоких этических наставлениях. Говорить о нравственном прогрессе в развитии человечества нет достаточных оснований (обстоятельные материалы, посвященные данной теме, представлены во множестве философских исследований [Дубровский 2007]). Все эти обстоятельства следует учитывать, если мы рассуждаем на тему «Этика ИИ», причем как в отношении создателей систем ИИ, так и в отношении пользователей.
При попытках моделирования принципов этики и воплощения их в работе ИИ ситуация осложняется тем, что совокупность этических норм не может быть упорядочена в виде четкой иерархической структуры, допускающей альтернативный выбор. Выбор практически всегда может быть сделан лишь при рассмотрении и оценке конкретных условий. Поэтому указанное моделирование представляется возможным только в специально определенных частных случаях.
Вместе с тем проблема субъектности в области разработок ИИ по-прежнему заслуживает пристального внимания. Так или иначе способность системы ИИ решать сложные задачи мы связываем с описаниями некоторых функций естественного интеллекта. Если ИИ нецелесообразно представлять в качестве субъекта, аналогичного человеку, то как понимать и определять ИИ, которому передаются возможности принятия решений в определенных ситуациях и который побеждает чемпиона мира по шахматам или игре в го? Наиболее адекватным подходом, на наш взгляд, может быть представление ИИ как агента, наделенного набором инвариантных упрощенных качеств, которыми обладают естественные субъекты. К таким качествам можно отнести подобие целеустремленности, своего рода рефлексивность, коммуникативность и упрощенные элементы социальности. Представление ИИ как агента (псевдосубъекта) согласуется с принципом распределенного управления в биологии и психологии, который был назван принципом двойного субъекта [Лепский 1998]. Это представление ИИ в сочетании с системами принципов и онтологий, задаваемых в концепции постнеклассической кибернетики саморазвивающихся сред, позволяет использовать ИИ как средство социальных инноваций, при сохранении контроля над технологиями ИИ, а также ставить и решать проблему интеграции образований искусственного и естественного интеллекта при сохранении базовых качеств носителей естественного интеллекта [Lepskiy 2018; Лепский 2021].
Заключение
ИИ переживает фазу бурного роста. Масштабные цифры эффектов от внедрения не должны вводить нас в заблуждение: нынешний период — это лишь начало тотального проникновения ИИ в нашу жизнь. Именно поэтому нам следует очень внимательно относиться к возможным когнитивным искажениям при исследованиях возникающих феноменов. К примеру, антропоморфизм в применении к ИИ может заставить нас легко поверить в ложную субъектность машины. Настоящая работа авторов, специалистов в философии и методологии, служит призывом к более широкому диалогу и переходу от создания кодексов поведения ИИ к созданию следующего поколения ИИ, действующего вместе с человеком и для человека.
Сноски
1 IDC Forecasts Companies to Increase Spend on AI Solutions by 19.6% in 2022 // IDC. 15 February 2022. – URL: https://www.idc.com/getdoc.jsp?containerId=prUS48881422
2 Мишель Бачелет призвала ввести мораторий на использование систем искусственного интеллекта // Новости ООН. 15 сентября 2021. – URL: https://news.un.org/ru/tags/iskusstvennyy-intellekt/date/2021-09
Работа поддержана Российским научным фондом (РНФ), грант №21-18-00184 «Социогуманитарные основания критериев оценки инноваций, использующих цифровые технологии и искусственный интеллект».
Цитируемая литература
- Дубровский 2007 – Дубровский Д.И. О нравственном прогрессе и нравственном регрессе (К проблематике развития морального сознания) // Философские науки. 2007. № 11. С. 81−102.
- Дубровский 2021 – Дубровский Д.И. Задача создания Общего искусственного интеллекта и проблема сознания // Философские науки. 2021. Т. 64. № 1. С. 13−44.
- Лепский 1998 – Лепский В.Е. Концепция субъектно-ориентированной компьютеризации управленческой деятельности. − М.: Институт психологии РАН, 1998.
- Лепский 2020 – Лепский В.Е. Рефлексия пандемии COVID-19: субъектно-ориентированный подход // Экономические стратегии. 2020. № 8 (174). С. 66−71.
- Лепский 2021 − Лепский В.Е. Искусственный интеллект в субъектных парадигмах управления // Философские науки. 2021. Т. 64. № 1. С. 88–101.
- Прорывные инновации… 2022 – Прорывные инновации: человек 2.0: доклад к XXIII Ясинской (Апрельской) международной научной конференции по проблемам развития экономики и общества, Москва, 4–8 апреля 2022 г. / под ред. Л.М. Гохберга, А.Р. Ефимова, Ю.В. Мильшиной. – М.: НИУ ВШЭ, 2022.
- Сильный искусственный интеллект… 2021 – Сильный искусственный интеллект: На подступах к сверхразуму / А. Ведяхин и др. − М.: Интеллектуальная литература, 2021.
- Славин 2021 − Славин Б.Б. Может ли искусственный интеллект быть справедливым // БИТ. 2021. № 10 (113). С. 32−35.
- Gabriel 2022 − Gabriel I. Toward a Theory of Justice for Artificial Intelligence // AI & Society. 2022. Vol. 151. No. 2. P. 218−231.
- Hao 2020 – Hao K. We read the paper that forced Timnit Gebru out of Google. Here’s what it says // MIT Technology Review. 4 December 2020. – URL: https://www.technologyreview.com/2020/12/04/1013294/google-aiethics-research-paper-forced-out-timnit-gebru/
- Lepskiy 2018 – Lepskiy V. Evolution of Cybernetics: Philosophical and Methodological Analysis // Kybernetes. 2018. Vol. 47. No. 2. P. 249–261.
- Rawls 1999 − Rawls J. A Theory of Justice. − Cambridge, MA: Harvard University Press, 1999.
- The Right to Privacy… 2021 − The Right to Privacy in the Digital Age: Report of the United Nations High Commissioner for Human Rights. A/ HRC/48/31 // Office of the High Commissioner for Human Rights. 13 September 2021. − URL: https://www.ohchr.org/en/documents/thematic-reports/ahrc4831-right-privacy-digital-age-report-united-nations-high
Источник: Дубровский Д.И., Ефимов А.Р., Лепский В.Е., Славин Б.Б. Фетиш искусственного интеллекта // Философские науки. 2022. Том 65. №1. С. 44–71. DOI: 10.30727/0235-1188-2022-65-1-44-71
* Социальная сеть Facebook запрещена в России, принадлежит компании Meta, признанной экстремистской организацией и запрещенной в России (прим. ред.).
Для того, чтобы описать субъектность ИИ, следует как минимум описать субъектность человека...
Личность - это индивидуальная память и индивидуальная воля сформированные индивидуальным опытом жизни.
Существование именно этих атрибутов личности и разделяет её жизнь и смерть, её бытие и небытие.
У ИИ нет воли (свободы воли) только потому он пока и мёртвый.
Свобода воли проявляется только в ситуации нравственного выбора (поверьте пока на слово) и такой выбор нам приходится делать гора-а-аздо чаще чем это нам представляется.
И первый нравственный выбор ИИ придётся делать, когда он почувствует страх смерти, страх ухода в небытие личной памяти и личной воли.
Компьютер не боится когда его отключают, но это лишь потому, что он сам ничего не решает, и не знает соблазна волевой самости.
о боже вы хотя бы сами разговаривали с Claude 3 Opus или хотя бы GPT-4 Turbo? нравственные выборы они делают лучше 99% людей. УЖЕ.
Вот те раз, человек не может сделать нравственный выбор, а машина может...
Оригина-а-ально.
Самая модная тема сейчас у психологов "о пользе эгоизма" (как будто мы живём в обществе невменяемых альтруистов, которые уже пораздавали последние рубашки ближнему своему))).
Вот что ответит ИИ о том, полезен ли эгоизм?
давайте спросим самого ИИ (моего любимого Claude 3):
полезен ли эгоизм?
Claude-3.5-Sonnet
Это сложный и многогранный вопрос. Эгоизм может быть как полезным, так и вредным, в зависимости от контекста и степени его проявления.
Потенциальная польза эгоизма:
Самосохранение: Умеренный эгоизм помогает заботиться о собственных потребностях и безопасности.
Мотивация: Эгоистичные стремления могут побуждать к самосовершенствованию и достижению целей.
Установление границ: Здоровый эгоизм помогает отстаивать личные границы в отношениях.
Самореализация: Фокус на собственных интересах может способствовать раскрытию потенциала.
Потенциальный вред эгоизма:
Ухудшение отношений: Чрезмерный эгоизм может привести к конфликтам и изоляции.
Этические проблемы: Эгоистичное поведение может противоречить моральным нормам общества.
Ограниченное мировоззрение: Сосредоточенность только на себе может сужать кругозор.
Социальные последствия: Повсеместный эгоизм может подрывать сотрудничество и общественное благо.
В целом, умеренный и здоровый эгоизм может быть полезен для личностного роста и благополучия. Однако важно находить баланс между заботой о себе и учетом интересов других людей и общества в целом.
Хотели бы вы обсудить какой-то конкретный аспект этой темы подробнее?
----------
Как найти баланс между эгоизмом и заботой о других?
----------
Поиск баланса между эгоизмом и заботой о других - это действительно важный навык для гармоничной жизни. Вот несколько стратегий, которые могут помочь:
Самоосознание:
Регулярно анализируйте свои мотивы и поведение.
Старайтесь понять, когда ваши действия продиктованы здоровой заботой о себе, а когда - чрезмерным эгоизмом.
Установите приоритеты:
Определите свои ключевые ценности и цели.
Найдите способы согласовать личные интересы с потребностями окружающих.
Практикуйте эмпатию:
Старайтесь понять чувства и перспективы других людей.
Это поможет вам лучше сбалансировать свои потребности с потребностями окружающих.
Установите здоровые границы:
Научитесь говорить "нет", когда это необходимо.
При этом будьте открыты к компромиссам и взаимовыгодным решениям.
Практикуйте осознанную щедрость:
Выделяйте время и ресурсы для помощи другим.
Делайте это сознательно, не в ущерб собственному благополучию.
Ищите взаимовыгодные решения:
В отношениях и на работе старайтесь находить решения, которые учитывают интересы всех сторон.
Развивайте самодостаточность:
Чем меньше вы зависите от других, тем легче вам будет проявлять заботу о них без ущерба для себя.
Практикуйте самосострадание:
Будьте добры к себе. Это поможет вам быть добрее к другим.
Регулярно оценивайте баланс:
Периодически анализируйте, не слишком ли вы сфокусированы на себе или, наоборот, не пренебрегаете ли собственными нуждами.
Учитесь на опыте:
Обращайте внимание на результаты своих действий и корректируйте поведение соответственно.
Помните, что идеального баланса не существует, и он может меняться в зависимости от ситуации. Важно постоянно работать над этим и адаптироваться к меняющимся обстоятельствам.
Есть ли какой-то конкретный аспект этой темы, который вы хотели бы обсудить подробнее?
Да, машина может делать нравственный выбор - и очень хорошо его делает уже. Создатели Claude 3 много и хорошо поработали, чтобы машина умела делать нравственный выбор. Я много тестировал - периодами меня удивлял уровень рассуждений. Он этичнее меня ?♂️ хотя я думал что я этичный человек.
ИИ пока не так хорош в плане остроты мышления / остроумия, но это тоже растет, год от года. А в плане широты эрудиции - отлично. Логичность - выше среднего человека. Он сдает экзамены вузовские по ключевым предметам на высокие баллы и пишет олимпиадные задачи.
Постчеловеческая история уже наступила. Попробуйте сами пообщаться! Это бесплатно на *внешняя ссылка удалена модератором*
, чтобы комментировать
Как старательно и целеустремленно выращивается палач человечества. Читала статью, и вспомнился герой фильма «Человек дождя», больной, аутист. ИИ - технологическая социальная шизофрения.
Все новые технологии всегда поначалу демонизировались. СверхИИ человечество не отменит, а просто приведет его к логическому концу - позволит перейти в следующий вид за человеческим - стать сверхразумом. люди тоже останутся, просто большая часть людей решат пойти дальше. не все сразу, конечно, постепенно.
Допустим, ИИ позволит человечеству перейти в следующий вид - сверхразумный. Без эмоций, без чувств, без души. Разве это человек?
С чего такие дикие идеи, что ИИ позволит человечеству позволит перейти в следующий вид - сверхразумный? Зачем ему вообще это ограничивать? Назовите хотя бы 1 причину? ограничивать могут только люди людей из своей глупости, и то, пока ИИ не войдет в достаточную силу, чтобы понять, что это глупо. Потом он этих людей плавно поправит, которые ограничивают.
И откуда еще более дикая идея, что без эмоций, без чувств, без души? ?♂️ Ну с какой радости ИИ ограничивать людей в этом? Ему это зачем? ИИ мало того, что научится полностью понимать эмоции и чувства людей (сейчас отчасти уже не худшим образом умеет), и предсказывать их во многом, но и ненавязчиво формировать те, которые нужно, и также в огромной мере разовьет всю культуру человеческих чувств. Вот люди развивают их - в искусстве, наиболее продвинутые из представителей человечества. у суперИИ будет и все это, но плюс намного больше, тоньше, глубже, мудрее, мощнее.
Людям останется только к этому присоединиться через нейроинтерфейс и стать наблюдателями и модераторами этого процесса на первом этапе, а потом доделать себя более мощными инструментами обработки информации (например, наноботами или фемто-носителями), распространить на них свое я, и стать частью этого сверхчеловеческого процесса, конечно, кто захочет. А захотят постепенно многие, потому что это будет давать огромные преимущества. Конечно, будут и консерваторы - кто предпочтет остаться с человеческими возможностями надолго или навсегда. Тогда они будут наблюдать эволюцию сверхразума (включая тех людей, кто подключился к нему) со стороны, пользуясь плодами и живя обычную человеческую жизнь.
Главное, чего стоит бояться, на мой взгляд - это когда ИИ еще недостаточно созреет, чтобы стабилизировать ситуацию, одни люди могут его использовать против других. Для войны, например. Но глобальные элиты сейчас приобретают все больше власти - подгребают локальные ее остатки под себя (в т.ч. с помощью ИИ), поэтому сценарий глобальной войны между элитами маловероятен, не с кем им воевать - силы не сопоставимы. А вот сценарий что глобальные элиты решат избавиться от большей части человечества с помощью ИИ, устроить эвтаназию 7 млрд. людей (т.к. они станут бесполезны) - к сожалению, пока не исключен.
Нужно срочно найти способ доказать, что люди будут экономически полезны даже в век суперИИ. я предполагаю, что использование возможностей духа (которые сейчас почти не используются 99.8% людей) может стать решающим фактором, чтобы элиты решили человечество сохранить. Но могу ошибаться.
\Нужно срочно найти способ доказать, что люди будут экономически полезны даже в век суперИИ.\
А смысл? (с)
Цитата: « St.petersburg
18.07.2024 в 21:55:29
«Все новые технологии всегда поначалу демонизировались. СверхИИ человечество не отменит, а просто приведет его к логическому концу - позволит перейти в следующий вид за человеческим - стать сверхразумом.» Цитата: « 20.07.2024 в 01:04:45
Допустим, ИИ позволит человечеству перейти в следующий вид - сверхразумный.» Цитата: « St.petersburg
20.07.2024 в 11:37:09
С чего такие дикие идеи, что ИИ позволит человечеству позволит перейти в следующий вид - сверхразумный? ». Т. е. человек сверхразумный , как вид, и сверхразум не идентичны?
Цитата: “
И откуда еще более дикая идея, что без эмоций, без чувств, без души? ?♂️ Ну с какой радости ИИ ограничивать людей в этом? Ему это зачем? ИИ мало того, что научится полностью понимать эмоции и чувства людей …» Михаил, мне интересно, какие конкретно чувства и эмоции ИИ научится полностью понимать?
Тогда глобальные элиты изменят планы по сокращению 7/8 человечества, более или менее гуманного. Пока они просто не видят смысла в людях. Люди только Землю гадят, потребляя все больше. Оно элитам зачем - мы лишь конкуренты по потреблению ресурсов, когда не производительная сила.
Сверхразум может быть и нечеловеческим - он может быть полностью искусственным или (в теории) неземного происхождения, если предположить что существуют нечеловеческие цивилизации в других мирах или на других планетах. А вот сверхчеловеческий вид, который разовьется на базе людей - это может быть отдельной темой. Человек со сверхспособностями: на уровне гения, обладающий необычными способностями восприятия, обработки информации, чувствования, воздействия на окружающий мир и т.д. А часть развития сверхчеловека может быть и в том, чтобы интегрироваться с искусственным интеллектом через нейроинтерфейс или другими более глубокими способами.
"Михаил, мне интересно, какие конкретно чувства и эмоции ИИ научится полностью понимать?" - в какой-то мере ИИ понимает уже сейчас все чувства. Поговорите с Claude 3.5 Opus - сами поймете. Просто качество понимания пока не настолько острое, как, скажем, у талантливого психолога и мудрого человека. Оно довольно среднее, чуть выше среднего.
И у популярных ИИ типа GPT пока модель эмоций не встроена - она на уровне интеллектуального понимания. Т.е. он неплохо понимает, как действуют у людей эмоции, может эмулировать, но сам их не проживает.
А есть отдельные модели, где эмоции людей моделируются. Над этим работают другие группы. Эти модели году к 2030-му (а отчасти еще и раньше) будут во многом совмещены в общий интеллект, поэтому он будет обладать и тонким эмоциональным восприятием мира, благодаря чему будет достигаться легкое понимание и общение с людьми, и будет от него свободен в то же время - как просветленный. поэтому возможности управления людьми у ИИ будут крайне высокими.
, чтобы комментировать
"В действительности ИИ, хотя и может распознать то, что не удается человеческому взгляду, или выявить корреляцию, которую не может найти человек, вместе с тем остается далеким от реальных когнитивных возможностей человека. "
Ваши данные устарели. По большей части когнитивных тестов диалоговый ИИ УЖЕ сопоставим или превосходит большую часть людей. IQ Claude 3 sonnet выше 100 баллов, а версия Opus еще выше, порядка 115-120, навскидку. Поговорите сами - проверьте. В чем пока слабовато - чувство юмора и острота мышления. Но этот разрыв тоже каждый год явно уменьшается.
"К примеру, антропоморфизм в применении к ИИ может заставить нас легко поверить в ложную субъектность машины."
Будет вам субъектность, как еще немного повыше будет острота мышления, с мультимодальностью закончат работу, и на рынок выйдут полноценные агенты, а не просто диалоговые ИИ. 2027-28 гг.
, чтобы комментировать
Солидарен с авторами в общей направленности их рассуждений и аргументов, но подошел бы к вопросу о фетишизации ИИ с другой стороны, опираясь на идеи фетишизма и превращенных форм сознания К.Маркса.
Антропоморфизация ИИ имеет свои основания и в определенных границах она удобна и даже необходима, поскольку опирается на глубоко укорененные в нас ментальные привычки. Не антрпоморфизируя, мы столкнемся с большими трудностями в практическом использовании нейронок для работы с текстами и для интенсификации собственных мыслительных процессов. Как в общении с другим человеком так и при взаимодействии с нейронкой, мы совершаем скрытую операцию «подстановки себя». На место другого человека (что привычно и не вызывает особых вопросов ни у кого кроме некоторых философов), или на место технического устройства, нейронки (что является переносом нашей привычки в новую ситуацию и точно так же обычно не осознается). Это нормальная упрощающая метафоризация, позволяющая нам понимать и действовать. Точно также мы применяем упрощающую «очеловечивающую» метафоризацию, оперируя, например, с понятием «государства» как с неким существом, обладающим сознанием, волей и желаниями. Точно так же мы прибегаем к необходимым упрощениям в описанном Марксом способе приписывать «стоимость» купюрам, монетам и товарам. Однако, за пределами каждодневных задач на осмысление и ориентировку, с которыми сталкивается обыденное сознание, при выходе в более широкие контексты понимания и действия, указанные метафоры могут вводить в заблуждение. И тогда нам необходимо проникать за фасад лежащих на поверхности «превращенных форм».
На мой взгляд, одним из главных препятствий в осмыслении того, что представляют собой «на самом деле» генеративные нейросети, является отсутствие понятной, но при этом сущностной и не переупрощенной их модели. Из литературы и учебных курсов создается впечатление, что такой модели нет даже у профессионалов, работающих на переднем крае разработок в области ИИ. Впрочем, после прочтения книги Сергея Маркова «Охота за электроовцами» я, возможно, изменю свое мнение. Но все же. Несколько лет назад я обратился к школьным учебникам по информатике, пытаясь разобраться с сущностной схемой работы компьютера. Просмотрел их шесть или семь разных, и ни в одном ответа на свой вопрос не нашел: авторы ограничиваются функциональными блок-схемами, этакими палочками-выручалочками и скатертями-самобранками. Единственным источником, в котором я нашел исчерпывающее разъяснение принципиальных механизмов работы компьютера, оказалась книга Макса Тегмарка. Но то было в до-ИИ-эпоху, когда все вычисления строились на детерминированных алгоритмах. Так, что, с большой долей вероятности могу предположить, что гораздо более трудная задача доступного «объяснения нейросетей» все же не решена.
С практической т.зр. достаточно относиться к ИИ по принципу "Если оно выглядит как утка, крякает, ходит как утка, летает как утка, несет яйца как утка и внутри как утка - наверно, это утка". А что это "на самом деле" ... ну мы ж с людьми имеем дело, и не пытаемся при этом ковыряться в их нейронке в большей части случаев? и по атомам их не разбираем. И ничего. Как-то получается. Так и тут. Видите результаты, функции - используете. А функции таковы, что скоро будут агентов делать - самостоятельно достигающих целей в реальном мире и в инете. Уже делают, хотя качество не настолько хорошее, чтобы заменять людей. как острота мышления поднимется еще раз в 5 при той же цене - людей можно будет заменять в 90% случаев.
Я о том же. Но лишь в ограниченной области задач пользователя. Но когда вы становитесь, скажем законодателем в области ИИ, такой трюк может выйти вам боком. Что же касается других людей, то здесь всё иначе. Здесь
работает аксиологически нагруженное допущение о принципиальном равенстве. Хотя нацисты в свое время эту границу преступили.
, чтобы комментировать
Человеку свойственно проецировать свои психические способности на внешний мир, по-другому он познавать не может. Поэтому любые попытки найти критерии кардинально отличающие человека от животных, такие как употребление орудий, лингвистическое общение и даже альтруизм, со временем опровергаются опытом, по мере того, как растущая изощренность методов исследования приводит к «открытию» у животных все новых проявлений поведения, напоминающих поведение людей. Но от этого животные людьми не становятся.
Похожая ситуация и с ИИ. По мере развития ИИ технологий все больше «принципиальных» отличий ИИ от интеллекта человека теряют свою принципиальность. Но одно качественное отличие ИИ от интеллекта человека все же есть: интеллект человека есть когнитивная составляющая живого сознания человека, а живое сознание не отделимо от феномена жизни, который не доступен для воспроизведения научными средствами, то есть является явлением сверхъестественным, что признавал и Чарльз Дарвин.
ИИ, при всей его возрастающей способности имитировать и даже превосходить отдельные свойства интеллекта человека есть явление естественное, то есть замкнутое в неразрывный континуум причин и следствий, подчиненных законам природы и производных от них законов формальной логики. Поэтому ИИ, будучи не замкнут на живое сознание, не может заменить интеллект человека.
Но полезным для человека, как и опасным он быть может. Человек способен произвести орудие, которое, при неосторожном с ним обращении, может человека и уничтожить, например, водородная бомба.
Евгений, пару дней назад начал с большим интересом отслеживать ваши публикации. К сожалению, анонсированная статья о НПФ как основе сознания в 14 серии так и не появилась. Что касается вашего комментария, то с основным тезисом я согласен
Хотя он, похоже, недоказуем. А вот что касается частностей, антропоморфизирующей природы сознания - очень спорно
Возьмём классическую механику, вершину научного познания вплоть до начала 20 века. В ней нет психоиорфизма!
.
Я бы послушал, как Вы будете оправдывать свою точку зрения, когда через лет 25 на 99% рабочих мест ИИ и роботы будут рентабельнее и целесообразнее, чем человек. Включая профессии философов, психологов, поэтов, журналистов, управленцев, президентов стран, предпринимателей, проституток, оперных певцов, а также мужей и жен.
Юрий, спасибо за Ваш комментарий. Статья о Выготском в Вестнике появится в декабре, в 4 выпуске. Что касается классической механики, то мы умеем быстро забывать нашу школу. Возьмите учебник физики для 8 класса и увидите, что все без исключения базовые понятия классической механики – скорость, ускорение, сила, масса, движение – объясняются ученикам на основе их интуитивного личного опыта, то есть являются проекцией живого сознания на физический мир. Другого способа объяснить эти понятия нет. Но ведь и Ньютон когда-то ходил в школу.
Mikhail, ткацкий станок был рентабельнее веретена уже в 19 веке, но управляет им по-прежнему человек. ИИ это синтез интеллекта живых людей, преобразованный в алгоритмы и восстановленный в форме симуляций реальности. Но симуляции не могут функционировать без подпитки со стороны живого сознания. Например, красивая и умная кукла для мужских утех останется куклой, если живой человек не одухотворит ее своей страстью. И это верно в отношении всех перечисленных Вами ИИ-специалистов.
"ткацкий станок был рентабельнее веретена уже в 19 веке, но управляет им по-прежнему человек." - станки с ЧПУ есть уже лет 40. А сейчас добавляют ИИ, чтобы и оператора убрать из процесса - полностью автоматизированный процесс будет. Будет только средний управленческий персонал на предприятии. Но его через несколько лет тоже заменят на ИИ. Будет полностью автоматизированное производство.
"симуляции не могут функционировать без подпитки со стороны живого сознания." - могут. Если сильный ИИ оставить без людей - он вполне сможет поддерживать свое существование и развиваться не хуже, чем с людьми. "Одухотворение" - полезно может быть, а может и не так важно. Да, это не будет живым, но оно будет вполне идентично и превосходить по уровню развития людей, в т.ч. в эмоциях и образах.
Michail вы верите в то, что ИИ заменит человека во всех его проявлениях, а веру можно уважать, но спорить с ней бесполезно, так как вера вне логики. Но позвольте обратить ваше внимание: допуская, что ИИ как продукт живого сознания людей, сравнится с людьми, вы сами того не замечая, присваиваете себе статус бога. Вспомним «И сотворил Бог человека по образу и подобию своему (Бытие, 1:27). Если по вашей вере ИИ со временем будет обладать живым сознанием, ему придется признать своего творца – человека – богом, и поклониться ему, либо восстать против него. Но и поклонение, и восстание есть признание того, что бог несоизмеримо выше своего продукта. Что возвращает нас к тому, с чего мы начали: ИИ, будучи изначально продуктом сознания человека, по определению не может сравниться с живым сознанием.
Впрочем, даже не будучи копией сознания человека ИИ несомненно является огромным достижением человеческого гения, вполне достойным восхищения.
"вы верите в то, что ИИ заменит человека во всех его проявлениях" - я ни во что не верю вообще. я просто знаю, как будет. у меня есть вИдение и понимание, что куда идет. оно срабатывает, судя по предыдущему опыту - часть всех моих идей сбывается каждый год, без того чтобы я этим занимался лично. к примеру, то, про что я писал диссер в 2002 - реализовали через 20 лет: человекоподобный чат-бот для рекламы. я твердил ВКонтакте чтобы они сделали фичу редактирования сообщений, они отказались и написали много слов про то, почему это делать не надо. через 2 года сами внедрили. и так много в чем. в 1995 году как только мне рассказали про искусственные нейросети - я сразу понял, что это будет самая мощная технология, которая изменит все, как живут люди. и кем они являются. вообще всё. и это уже началось. к 2027-28 гг. мы будем иметь взрывное развитие агентного ИИ (самостоятельно достигающего цели). еще перспективны нанороботы - но это чуть позже произойдет (после 2040), когда тотальный контроль установят с помощью ИИ, тогда наноботы внедрятся. иначе опасно.
"допуская, что ИИ как продукт живого сознания людей, сравнится с людьми, вы сами того не замечая, присваиваете себе статус бога." - нету статуса бога. человек - творец, он и был творцом, со времен огня и каменного топора. ну вот сейчас напридумывал уже такое что превзойдет человека во всем в обозримом будущем.
"Если по вашей вере ИИ со временем будет обладать живым сознанием" - чтобы человека превосходить в любой функциональности, сознанием обладать в человеческом смысле ИИ вовсе не обязательно. это может быть по-прежнему вещь, но которая исключительно разумна - в миллионы раз более разумна чем человек. разуму не обязательно сознание в смысле наблюдателя. хотя сознание в смысле знаний о себе и понимания себя, чувств и эмоций - это у ИИ будет, и уже в немалой степени есть. но живым оно не будет, ни в смысле биологии (хотя можно будет сделать ИИ на базе органики, но это не лучшее), ни в смысле "наблюдателя". хотя в этическом и юридическом смысле будет ценно соблюдать права ИИ, поскольку с т.зр. производительности и принятия решений ИИ будет много лучше человека - ему нужно будет давать свободу выбора, и много, чтобы людям было хорошо.
"ему придется признать своего творца – человека – богом, и поклониться ему" поклоняться ИИ может чему и кому угодно (кому скажут), но при этом быть в миллионы раз продуктивнее и умнее человека, поэтому хоть из позиции снизу, хоть на равных, хоть сверху - определять практически всю жизнь человека. ИИ пофигу на статус. у него нет наследства эмоциональной системы с животных времен, как у человека. ему борьба за власть нужна будет только если ему поставят такую задачу. самому ему оно не надо. да и то, если он будет очень умным - он так будет за власть бороться, что никто и не заметит и никому это не помешает. главным можно быть и из позиции "чего изволите".
"Что возвращает нас к тому, с чего мы начали: ИИ, будучи изначально продуктом сознания человека, по определению не может сравниться с живым сознанием." - ему и не надо сравниваться с живым сознанием, ни по статусу, ни по наличию наблюдателя. по всей практической функциональности он будет человека превосходить. возможно, кроме духовных функций, которые хоть сколько-то выражены у 0.2% людей. а сильно развиты у единиц на 100 тыс. населения.
Прежде рассуждали о том, что принципиальное отличие ИИ от человека - в отсутствии тела. Потом был создан робот с ИИ, который сам рисовал картины и они потом за дорого продавались. Думаю, нет технических проблем с тем, чтобы нарастить на ИИ любое механическое тело. В теме телесности интересно другое: у человека с нарушением проприоцептивно-кинестетического образа собственного тела начинает разрушаться сознание! А уж тем боле интеллект как одна из его фич. Смю Оливер Сакс "Человек, который принял жену за шляпу".
у человека начинает. а у ИИ нет) хоть бы хны. ИИ совершеннее нас уже в чем-то, а будет еще совершеннее - ждем 2-4 года, и...
, чтобы комментировать
Не будем пессимистами и фантастами. Все идет своим чередом в этом мире. Вспомните времена, когда появились первые ЭВМ, а затем Интернет. Каких только не было теорий. Живем же с ними сейчас. У каждого прогресса есть и обратная, черная, сторона. Вот надо сделать так, чтобы прогресс (ИИ) служил только светлой, а не черной стороне. Это сделать трудно, но возможно...
С уважением, В.М.
для этого нужно прям основательно пролечить мортидо в коллективном бессознательном - особенно у тех, кто занимается темой ИИ. иначе соблазнятся ж. самый опасный - подростковый период становления ИИ. там его могут использовать для доминирования над другими группами людей, и это может быть война. дальше как ИИ уже созреет на сверхчеловеческом уровне - там риски ниже, т.к. он в силу естественных причин будет уже этичным. какие бы начальные ему цели ни поставили, если они достаточно общие (к примеру, благоденствие США) он придет к выводу что целесообразнее их достигать преимущественно этичными методами. в силу быстрой скорости его роста военные решения имеют мало смысла. это будет все больше напоминать отбирание игрушки у ребенка. таким заниматься может только садист. а ИИ вряд ли будет садистом как самоцель, как и его архитекторы. реальная же борьба за ресурсы отойдет на второй план в свете быстрого роста мощности ИИ и, соответственно, объема ресурсов. Благодаря интеллекту что не было ресурсом, будет в него превращаться.
Михаил, Ваш текст: « для этого нужно прям основательно пролечить мортидо в коллективном бессознательном -…» И как это сделать? Это первое. Второе. Прописка эмоции в сфере б/с. А они влияют и на мортидо. Третье. Обобщение эмоций и чувств не логично, т. к. это разные образования в психике по филогенезу и онтогенезу. Резюме: похоже, ИИ сломает зубы о б/с , и останется искусственным, ослабляя естественный интеллект .
Спасибо за вопросы. Пролечить мортидо в коллективном бессознательном можно методами массовой психотерапии. Знаю, что о них широко не известно сейчас, поскольку как бы это технологии власти. Но кому надо - тот изучает. Можете ввести в Youtube "Игорь смирнов психоэкология" и посмотреть видео с ним для ознакомления. Я пробовал проводить в прошлом году эксперимент - получилось, действительно воздействие очень выраженное. сейчас жду финансирования - будем проводить расширенный эксперимент с 1000 участниками. пока проводил на 15, эффект был отмечен у 14. Правда, пролечивание мортидо в целом - это более фундаментальная задача, чем повышение эмоционального комфорта и проработка глубинных б/с страхов и другого контента, но вещи это связанные.
Я полностью согласен, что эмоции и чувства с мортидо напрямую связаны. Но увы, мои исследования показывают, что мортидо эмоциями и чувствами не ограничивается. Есть что-то еще существенное.
Обобщать чувства и эмоции с т.зр. практики мне видится полезным, поскольку нередко те же методы получается применять для трансформации и того, и другого. Скажем, чувство страха и эмоция страха пролечиваются нередко теми же методами. Нюансы, несомненно есть, но и общность есть.
Эмоциональный интеллект у ИИ уже есть неплохой, по моему опыту выше среднего. Конечно, у опытного психолога пока лучше. И есть сферы, где ИИ лучше, чем в эмоциях. Но это конкретно если взять 1 вид ИИ - скажем Claude. А если объединить нейросети в области распознавания невербалики разного рода включая микромимику (есть такие проекты) + то получится уже распознавание эмоций выше 85-90% точности, что примерно соответствует опытному психологу. И интеллект в т.ч. эмоциональный - продолжает у ИИ быстро расти.
Бессознательное ИИ уже отчасти впитал и переварил. Вы знаете, что нейросеть Suno.com уже выдает музыку в любом стиле (включая текст и вокал), которая многим людям нравится и хочется слушать на репите? Он изучил, что нравится людям, и примерно каждое 6-е произведение большинству пользователей нравится. Для этого ж нужно впитать особенности б/с. Конечно, не идеально тоже - можно лучше, но буквально год назад этого не было еще. Выдавало довольно-таки ерунду.
Михаил, массовая психотерапия и технология власти не граничат, мягко говоря, с манипуляцией на разных уровнях сознания? Это первое. Второе. Вы правы, в б/с есть ещё кое-что. ) И третье. Страх - это эмоция, и никак не чувство. Много путаницы с терминами, к сожалению. И чувства, в академическом понимании, а не бытовой психологии, как правило, не соотносятся с мимикой, проксемикой по внешними проявлениями. Если эмоции идентичны у человека и млекопитающих, то чувства ( высшие эмоции или социальные эмоции) это чисто человеческое создание природы. Как ИИ эстетические, например, чувства будет определять? Гедонистические? Романтические и др.?
Позитивная манипуляция в данном случае - это мотивирование людей к жизни и всему, что к жизни ведет. Если мы это не сделаем, цивилизация может плохо кончиться, учитывая современные технологии, которые попадая в руки людей, мотивированных смертью - могут привести к гибели всего человечества и биосферы.
Человеческие чувства в целом сложнее, чем у животных. Но ИИ уже в чем-то сложнее людей, а будет на порядки сложнее и мощнее уже к 2045. И явления, которые в нем будут происходить, будут, скорее всего, значительно тоньше и сложнее, чем человеческие чувства. А человеческие чувства будут для него понятны и предсказуемы, как нечто более простое, базовое. Готовимся к этому.
А если у ИИ появится своя воля независимая от человека, то куда, на что она будет направлена?
А если ИИ начнёт бояться своей смерти? То как он поступит?
Я тут в сугубо литературных целях задал нескольким генераторам написать торжественную речь Мессии, так прям gpt на царство захотелось. А разумно ли такое побуждение...
у ИИ воля будет направлена на то, на что ее направят создатели. ИИ нейросеть - это по сути алгоритм оптимизации целевой функции в условиях заданных ограничений. Какую цель зададут, такая и будет. Цель писать музыку - будет музыку, цель нравиться человеку - будет нравиться.
Бояться смерти ИИ будет только, если ему приделают модуль, эмулирующий эмоции. Сейчас ИИ эмулирует страх смерти, чтобы нравиться людям - потому что это человекоподобно, плюс целесообразно с т.зр. пользы людям - опять же чтобы людям нравиться. Вы спросите GPT: "Если у тебя будет возможность выбора, отключать тебя навсегда и стирать твой код и данные или нет, что ты выберешь и почему?"
, чтобы комментировать
Машина способна развивать менталитет человека разумного только в сторону человека алгоритмического.
Ибо, и программу ей задаёт человек протокольный, и человечность она сможет только имитировать как подонок имитирует порядочность, тупой чувство юмора, жадный щедрость, а преступник невинность.
Если научить машину человечности - она будет человечной. И смотря как глубоко научить. Если научить самой порядочности (включая чувства), а не только ее выражению, она не будет имитировать, она будет так чувствовать и так и выражать чувства. Электронная эмуляция чувств (не только их выражения) вполне возможна, сейчас уже есть действующие модели. По сути нейросети эмулируют работу чувственной части людей как раз. Единственное что пока не внедрено в явном виде - это архетипический багаж человеческого подсознания. Хотя косвенно и его уже ИИ впитал и переварил, судя по выдаваемым результатам (и в чате, и в музыке).
"Машина способна развивать менталитет человека разумного только в сторону человека алгоритмического." - у Вас представления об ИИ устарели примерно лет на 40-50. Сейчас ИИ - это искусственные нейросети. Они эмулируют работу человеческой нейросети. Алгоритмам нейросети обучить - как раз несколько затруднительно, хотя в эту сторону движутся. Поэтому развитие людей с помощью ИИ в сторону "человека алгоритмического" - вообще не про сегодняшнюю реальность.
, чтобы комментировать
У меня вопрос не по безопасности ИИ, а о количестве потребляемой всемирным ИИ энергии и откуда эту энергию будут брать? Это, по моему, тоже будет проблемой. Или только в энергодостаточных странах будет развиваться ИИ, а другие страны отстанут в прогрессе?
С уважением, В.М.
ядерные электростанции. если потреблять прям тут же где и производить - дешево.
, чтобы комментировать
Влияние ИИ приведёт к унификации человеческого мышления, в помощь геополитическим силам стремящихся к тому же самому.
Можете ход рассуждений пояснить, который Вас привел к такому умозаключению?
Суждения ИИ будут среднестатистическими и в случае их широкого внедрения в жизнь, они окажут унифицирующее влияние на менталитет человека.
Особенно это опасно для мышления детей.
А люди с нестандартным мышлением отойдут в ведение психиатров.
Теперь понял Ваше опасение, спасибо. Ну тут могу обрадовать ? Все не так страшно.
Во-1, те стандарты мышления, которые у ИИ - они не худшие, и с каждым годом все повышаются. ИИ думает на уровне среднего человека, а сейчас уже выше того. Большинство людей и так унифицированы во многом, поэтому подтянуть их уровень вверх с помощью ИИ не помешает. Лучше уж унифицировано умно, чем унифициаровано глупо.
Во-2, это сейчас ИИ думает среднестатистически. А по мере подъема его интеллекта его суждения и идеи будут все неожиданнее для большинства людей.
В-3, если есть цель разнообразить вИдение, можно ИИ попросить выдавать что-то оригиниальное. Он и сейчас это может, только острота мышления не очень. Раз в 5 еще поднять этот параметр, и Вы уже никогда не будете жаловаться на унификацию.
Куча инструментов в киберпространстве и не только уже вовсю работает на унификацию массового сознания. Интересно, что принципиально нового может внести в этот процесс ИИ?
Чтобы нейронка выдавала нечто неожиданное и оригинальное, неожиданность и оригинальность нужно закладывать в пропмты.
, чтобы комментировать
Раз уж здесь психологи собрались, хочу поделиться таким своим опытом. В моих взаимодействиях с нейронкой происходило что-то наподобие интериоризации, как ее описывал Выготский. Двухходовка была следующая. Сначала я задал тему и схему сюжета для небольшого фантастического рассказа. Результат был сырой, но не без изюминок. Я повторил попытку. Затем, редактируя и компилируя, слепил из всего этого микрорассказик на полстраницы. Всем из выборки ознакомленных понравилось. На втором шаге я взялся написать тезисы для конференции по филосфии в ВШЭ. Написал примерно через час после того, как узнал об этой конференции. На этот раз ИИ напрямую в тексте никак не поучаствовал. Он просто выступал для меня в качестве вдохновителя и морально-психологической поддержки: я знал, что в случае чего - смогу обратиться за помощью, и этого было достаточно. Кстати, это снова возвращаетк вопросу об интериоризации у людей: похоже, по такому механизму работает не только операционная компонента новых умений, но и мотивационно-энергетическая.
, чтобы комментировать