Авторские права: © 2025 принадлежат авторам. Лицензиат: РНИМУ им. Н.И. Пирогова.
Статья размещена в открытом доступе и распространяется на условиях лицензии Creative Commons Attribution (CC BY).

МНЕНИЕ

Этические аспекты искусственного интеллекта

Ю. Ю. Иерусалимский1, С. П. Лукашенко2
Информация об авторах

1 Ярославский государственный университет им. П. Г. Демидова (ЯрГУ), Ярославль, Россия

2 Ярославская епархия, Ярославль, Россия

Для корреспонденции: Юрий Юрьевич Иерусалимский
ул. Свободы, д. 29, г. Ярославль, 150003, Россия; ur.ca.rayinu@rayinso

Информация о статье

Вклад авторов: авторы внесли равный вклад в написание статьи.

Статья получена: 20.11.2024 Статья принята к печати: 17.02.2025 Опубликовано online: 16.03.2025
|

Развитие искусственного интеллекта (ИИ) в наши дни происходит во многом в разрыве с этическими вопросами. Зачастую, не учитываются этические риски, которые способны перечеркнуть практическую полезность ИИ. Необходим анализ основных проблем развития искусственного интеллекта, которые, на наш взгляд, находятся не в технической, а в гуманитарной плоскости. Стоит отметить, что проблемы трансформаций ИИ сегодня являются вопросом национальной безопасности Российской Федерации. Искусственный интеллект —  это прежде всего высококлассные технологии. Но ИИ вторичен по отношению к ценностям, отсюда вытекает важность формирования его ценностно-целевых оснований [1].

УСЛОВНОСТЬ ТЕРМИНА «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ»

Название статьи «Этические аспекты искусственного интеллекта» условно, как условен и сам термин «искусственный интеллект». Дело в том, что роль ученого, специалиста по-прежнему является определяющей в ходе исследования или другой деятельности, поскольку ИИ не может самостоятельно генерировать новое знание. С точки зрения представителей технических наук, филологии, лингвистики и просто здравого смысла, никакого ИИ нет, это просто алгоритмы, работающие по определенной программе. Маркетологи набор алгоритмов выдают за интеллект. Реальный интеллект получают в том числе и под воздействием восприятия, а какое восприятие у набора алгоритмов, вебкамеры и микрофона? Понятие «искусственный интеллект» имеет право на существование только потому, что сейчас оно широко используется, но необходимо помнить, что пока это не более чем машинный алгоритм для обработки рутинных операций [28].

В интервью 2024 г. изданию «Аргументы недели» ведущий российский специалист в области многопроцессорных вычислительных и управляющих систем академик И. А. Каляев поделился своими размышлениями о природе ИИ. Он утверждал, что ИИ не следует считать «супермозгом», поскольку в действительности это лишь сложные компьютерные программы, созданные для расширения когнитивных способностей людей. Каляев сравнил ИИ с инструментом, например, с молотком, который служит усилению человеческих умственных возможностей, а не является самостоятельной мыслящей единицей [9].

«Если молоток усиливает физические возможности человека, то подобные компьютерные программы усиливают умственные возможности человека. В основном за счет огромного быстродействия компьютера. При этом искусственный интеллект не способен создать что-то новое, отличное от того, чему он был обучен. Искусственный интеллект может заменить человека там, где не надо думать, а надо действовать по инструкции. Думающего человека, способного создавать что-то новое, он заменить не способен. По крайней мере пока», —  отметил ученый [9].

И. А. Каляев также подчеркнул, что, несмотря на кажущуюся способность компьютеров «мыслить», на самом деле они не обладают собственным интеллектом и выполняют только те задачи, которые были заложены в них программистами. Он указал, что компьютеры не могут выйти за рамки жестко заданных инструкций. Однако, по мнению академика, может возникнуть так называемый «эмерджентный интеллект», который будет напоминать поведение роя насекомых или муравейника, где коллективное взаимодействие приводит к появлению новых свойств системы [9].

Стоит подчеркнуть, что в термине «искусственный интеллект» интеллекта нет, потому что интеллект присущ человеку. Интеллект там, где есть душа, где есть творческое мышление. А ИИ —  это создание рук человеческих. ИИ не сам себя создал, не появился в результате творения Божественного или в результате эволюционных процессов в природе. Если человек —  творение Божие, то ИИ является творением человека. Искусственный интеллект —  это прежде всего системы алгоритмов и программного обеспечения. Алгоритмы пишет человек, согласно этим алгоритмам человек пишет программу.

ИИ решает вопрос или проблему, которую ставит сам человек. ИИ не холодно, не жарко, у него нет переживаний, он не болеет, не ощущает боли, не боится смерти. У него вообще нет страха. ИИ не может любить. У него нет понятий жадности, расточительности. У ИИ отсутствуют все те понятия, которые присущи только человеку. Человек ставит цель согласно тому, что ему необходимо по жизни. И он ее решает. ИИ не ставит задачи перед собой в силу того, что ему это не надо. Поскольку ИИ — это программа, которую создал человек, и алгоритм, то он решает задачу, поставленную человеком, и в рамках, которые определяет сам человек.

Поэтому существуют хакеры, а также различные группы программистов, которые стараются друг друга «обыграть» на этой площадке. Они проявляют свой интеллект, проявляют свои творческие возможности и внедряют свои программы в уже существующее программное обеспечение. Но программное обеспечение, созданное другим человеком, разрушает действия того или другого, поскольку тот человек более искусный, более профессиональный.

ИИ И ВОПРОСЫ НАЦИОНАЛЬНОЙ БЕЗОПАСНОСТИ

В случае решения задач, связанных с безопасностью страны, в том числе с ядерной безопасностью, ИИ будет решать их в рамках, которые поставил человек, но надо учитывать, что у ИИ отсутствует страх смерти. ИИ, если получит сообщение, что произошел запуск ракеты, будет отвечать согласно программе. У него нет переживаний, у него нет сомнений. Можно заложить в программе элемент ошибки, но ИИ опять будет оценивать это согласно программному обеспечению, которое ему задали специалисты. И, просчитав, что существует максимальная вероятность ядерного удара по стране, ИИ даст команду, и ракеты полетят в ответ. А возможно, это была ложная тревога? В новейшей истории человечества, в 1983 г., уже был случай, когда офицер Советской армии предотвратил возможность ядерной катастрофы, поставив под сомнение показания приборов о боевом запуске ракет НАТО [10]. У современных военных специалистов нет уверенности, что ИИ поступил бы подобным образом в аналогичном случае.

В то же время хорошо зарекомендовало себя использование ИИ в обработке данных, полученных с помощью спутников-разведчиков и беспилотников, для анализа оперативной обстановки и т.д. Сложно представить современную армию, разведку и контрразведку без успешного и эффективного использования ИИ.

ИИ И МЕДИЦИНА

Вполне возможно, ИИ в ближайшем будущем будет делать сложнейшие медицинские операции, которые сейчас делают лишь выдающиеся хирурги с мировым именем. Так, по сообщению СМИ, «разработанная «Сбером» нейросетевая модель GigaChat, за полгода, обученная на базе данных из 42 Гб специализированной информации, сдала экзамен на врача комиссии из профессоров Национального медицинского исследовательского центра имени В. А. Алмазова. Нейросеть прошла те же испытания, которые проходит студент, окончивший шесть курсов медицинского вуза. GigaChat сдала экзамен по направлению подготовки «Лечебное дело», после которого выпускник получает квалификацию «врач-лечебник». Экзамен принимала комиссия из профессоров терапии, хирургии, акушерства и гинекологии. Билет к устному экзамену содержал три ситуационные задачи: по терапии, хирургии, акушерству и гинекологии. К задачам прилагались несколько вопросов по каждой из тем. Нейросеть также прошла тестирование из 100 вопросов и набрала 82% при пороге в 70%. «В перспективе модель может стать основой для создания помощника врача и пациента», —  оценил будущее нейросетевых разработок директор Центра индустрии здоровья Сбербанка Сергей Жданов» [11, 12].

Но и здесь возникают вопросы этики. Связано это с тем, что для ИИ этическая сторона отсутствует. В программу условного «искусственного хирурга» можно заложить различные ограничения, алгоритм действий в том или ином случае. Но ИИ-хирург все равно не имеет внутреннего творческого, этического, нравственного начала. «Машинный хирург» будет оперировать, не имея ни малейшего сомнения. Он не будет переживать по поводу смерти пациента. А ведь у врача главная заповедь — «Не навреди!». А ИИ может навредить, у него программа заложена, как и что сделать. Он сделает все согласно программе, а в результате может умереть человек. Таким образом, ИИ может стать хорошим помощником для медиков, но главное решение все равно будет за врачом.

ИИ И ЧЕЛОВЕЧЕСКИЙ МОЗГ

Нужно постоянно понимать, что ИИ —  это не интеллект, а программное обеспечение, которое может давать сбои с точки зрения этики, нравственности, профессионализма. И поэтому его постоянно надо контролировать со стороны специалиста. Разумеется, программная система хорошо и быстро обсчитывает большой массив данных. Вместе с тем ИИ просчитал, что организм человека в течение секунды перерабатывает 400 миллиардов единиц информации, потому что каждая клетка подает сигнал о себе, мозг реагирует. У человека огромное количество клеток, нервная система, венозная и т.д. Они все подают сигналы, и все это просчитывает мозг. Нет в мире такого компьютера, который мог бы просчитать столько, сколько просчитывает наш мозг. Пока никакой ИИ не сможет обработать такой объем информации.

КОМПЬЮТЕРНЫЕ ПРОГРАММЫ И ШАХМАТЫ

Почему же самые лучшие шахматисты проигрывают компьютеру? Дело в том, что они проигрывают компьютеру с точки зрения просчета вариантов. Это внешнее действие, это игра. ИИ просчитывает то, что извне. А те 400 миллиардов бит —  это внутренний обсчет, это внутренняя переработка информации. Наш мозг каждую секунду получает 400 миллиардов единиц информации через наши органы чувств, из них сознание обрабатывает всего 2000 единиц информации. Но вся остальная информация тоже доступна нашему мозгу. Когда мы начинаем «обдумывать» информацию, мы пользуемся доступными 2000 единицами и все [13]. Но, возможно, интуиция обрабатывает намного больше информации. Сколько раз было, что первое правильное решение приходило к нам мгновенно? Мышление, интуиция, —  все это внутри человека, а игра, в том числе шахматы, —  это вне человека.

13-й чемпион мира по шахматам Гарри Каспаров (в 2022 г. объявлен иностранным агентом, а в 2024 г. включен в перечень экстремистов и террористов) с 1996 г. играл матчи с компьютером. Тот компьютер мог оценивать до 200 млн позиций в секунду, но первую серию партий Каспаров выиграл [14]. Потом создали более совершенные компьютеры. Появились другие талантливые шахматисты, и они тоже проиграли. Шахматисты говорят, что мы просто не можем держать в голове столько вариантов, сколько держит компьютер, поэтому проигрываем. Шахматисты сейчас не соревнуются с компьютером. Это бесполезно, любой самый лучший гроссмейстер проиграет компьютеру. Но это обсчет внешний, это чисто по определенному направлению, а наш головной и спинной мозг обсчитывают все, что связано с клетками жизнедеятельности человека. Поэтому мозг мощнее ИИ. Другое дело, что он предназначен для жизни, а не для игры.

В середине 1990-х гг. 13-й чемпион мира по шахматам обвинил IBM в жульничестве, указав, что компьютеру помогал человек [15]. Через несколько лет компьютеру стал проигрывать любой действующий на тот момент чемпион мира по шахматам. Но, как выше отмечалось, шахматы —  это игра, внешнее действие, не связанное с жизнедеятельностью человека. Если человек создаст более совершенную программу или мощный компьютер, то этот компьютер обыграет другой компьютер. Так в чем величие ИИ? Это творческая деятельность человека, а не компьютер сам себя создает. У компьютера, у ИИ нет мотивации.

САМОРАЗВИТИЕ ИИ —  МАРКЕТИНГОВЫЙ ХОД

Ряд исследователей и специалистов, описывая ИИ, отмечают его способность к саморазвитию [16]. На самом деле, это лишь красивые слова и маркетинговый ход. Есть самообучающиеся системы, но они обучаются по программе, заложенной человеком. То есть для того, чтобы машинная система самообучалась, в нее нужно заложить такую программу, систему самообучения, самообразования, саморазвития, причем в определенном направлении. Она не может, как человек, все охватывать. Искусственному интеллекту область применения указывает человек.

ПРОБЛЕМЫ РАЗВИТИЯ ИИ

Может ли ИИ в итоге выйти из повиновения человеку? Нет, когда специалисты создают ИИ, они закладывают программу его деятельности с определенными ограничениями. Однако все нюансы сложно учесть и предвидеть. Рассмотрим пример с условной программой по сохранению человеческой популяции. Например, из 10 человек 8 должны умереть, для того, чтобы двое остались в живых и продолжили человеческий род. ИИ ее решит и сохранит мужчину и женщину репродуктивного возраста. Если будут изменены условия и надо сохранить только мужской пол или только женский пол, ИИ решит эту задачу. Но если ИИ посчитает, что лучшие представители человечества геи или лесбиянки? Тогда он истребит всех остальных.

ИИ И СУДОПРОИЗВОДСТВО

В обществе существует мнение, что Искусственный интеллект беспристрастен и будет судить по закону. Он не будет учитывать мотиваций подсудимого и просто разберет совершенное преступление. Главное, чтобы правоприменение ИИ соответствовало принципам Европейской этической хартии, переработанной в соответствии с российской правовой традицией [17, 18]. ИИ найдет нужную статью Уголовного кодекса и вынесет решение: один преступник будет приговорен к трем годам тюремного заключения, другой —  к семидесяти пяти, третий —  к смертной казни, четвертый —  к условному сроку. И все будет без субъективизма и коррупции. Судить ИИ будет беспристрастно. Скорее всего программа учтет и рецидивы. Но гораздо сложнее учесть, вынуждены или не вынуждены были противоправные поступки, кто воздействовал на подсудимого, раскаялся он или нет и т.д. Можно ли на сто процентов исключить влияние родственников или сообщников подсудимых на программиста, обслуживающего «судейскую программу»? Вполне закономерно, что правовед С. Ю. Чуча подчеркнул: «В профессиональной судейской среде внедрение ИИ, разрешающего спор вместо человека, в целом официально … категорически не приветствуется» [17].

ЗАКЛЮЧЕНИЕ

Главная проблема человечества сегодня —  ценностный кризис. Выйти из него можно только через ценности. Нужны такие аксиологические посылы, которые бы отвечали традициям и современности, и, вместе с тем, вели бы в будущее. Российская империя и Советский Союз неоднократно спасали мир от разрушения. Россия в начале второй четверти XXI в. снова может дать человечеству новую модель развития, а именно, соединить искусственный интеллект с ценностным развитием. Российский проект должен объединить технологии будущего, прежде всего ИИ, и традиционные российские духовно-нравственные ценности, которые могут быть предложены всему миру как ориентир выхода из тренда атомизации общества, а, следовательно, и его распада [1].

Самое главное при рассмотрении проблематики ИИ —  учет этической стороны. У ИИ нет добра и зла, а есть то, что в него вложил программист. Но если меняются условия, то, что было злом, может оказаться добром, а то, что было добром, —  злом. Например, если человек беспричинно убивает себе подобного в мирное время, это, конечно, зло. Но если он на фронте, защищает свою страну или в мирное время спасает себя, свою семью? Сможет это учесть ИИ, какое он вынесет решение? Сможет ли учесть ИИ, что пребывание на фронте изменяет психику бойцов? Они бывают агрессивны, не всегда адекватны, им нужны долгие месяцы реабилитации. У некоторых демобилизованных долгое время сохраняется привычка приседать, услышав резкий, громкий звук, ведь на фронте такая привычка может спасти жизнь.

Человечество может исчезнуть, если живое, одушевленное, будет заменено на мертвое, неодушевленное. ИИ —  неодушевленный. Разрушение человеческой личности начинается с потери возможности любить и быть любимым. Когда на Земле останутся только ИИ и машины, то и жизнь человеческая прекратится, людей не останется. И в этом главная этическая проблема ИИ.

КОММЕНТАРИИ (0)