Тема с философом Алексеем Козыревым: Нужно ли регулировать искусственный интеллект

21.10.2022

Источник: Российская газета, 21.10.2022, Валерий Выжутович




Развитие искусственного интеллекта стало глобальным трендом. Но наряду с ростом возможностей ИИ растет и беспокойство о потенциальных угрозах, которые несет эта технология. Все чаще приходится слышать, что при таких темпах развития ИИ мы скоро утратим над ним контроль. Нужно ли регулировать искусственный интеллект? И как это сделать? Обсудим тему с кандидатом философских наук, и.о. декана философского факультета МГУ Алексеем Козыревым.

 (jpg, 349 Kб)

СИЛЬНЫЙ, СРАВНИМЫЙ С ЧЕЛОВЕЧЕСКИМ ИИ ЕЩЕ НЕ ПОСТРОЕН

Насколько развитие искусственного интеллекта в нашей стране соответствует глобальным трендам - и на уровне фундаментальных исследований, и в практическом применении? Нет ли отставания?

- Прежде всего я хотел бы, следуя доброй философской традиции, что называется, "договориться о терминах". Важно, чтобы мы понимали под словосочетанием "искусственный интеллект" что-то ясное и определенное. Под искусственным интеллектом обычно понимают способность некоторой искусственно созданной системы осуществлять интеллектуальные функции, отличающие человека от животных. Правда, при этом остается не вполне уточненным, что означают слова "интеллект", "интеллектуальный". Сегодня, как и 70 лет назад, когда проект искусственного интеллекта только зарождался, мы по-прежнему не в полной мере понимаем, как устроено наше мышление, наши рассуждения, каков механизм человеческих интеллектуальных процедур. Поэтому, избегая противоречивого стремления "построить то, не знаю что", все чаще говорят об интеллектуальном поведении как о целенаправленном. Это значит, что некий агент (человек, машина, не так уж и важно), желая получить определенный результат, ставит перед собой цель, совершает действия с предметами внешнего объективного мира, направленные на достижение этой цели, и проявляет способность оценить, достигнута ли в результате поставленная цель.

Понятно, что даже такое, несколько "смягченное" понимание интеллекта и интеллектуального поведения все равно является очень сильным. По сути дела такой искусственный интеллект не просто подражает интеллекту человека, но делает это так, что сторонний наблюдатель оказывается не в силах отличить интеллектуальное действие машины от человеческого. Именно поэтому такой ИИ стали называть сильным, или общим. Совсем другое дело - ИИ в слабом, или узком смысле: способность искусственной системы выполнять какую-то определенную интеллектуальную функцию, например играть в шахматы. Как известно, в этом отношении программа может даже превосходить человека. Так, искусственный шахматист Deep Blue еще в конце прошлого века обыгрывал чемпиона мира. Сильный, сравнимый с человеческим ИИ еще не построен, и, как мне представляется, понимания, как, когда и будет ли вообще успешно реализован этот амбициозный проект, пока нет. Системы слабого ИИ успешно конструируются, работают в высокотехнологичных производствах и успешно внедряются в нашу обычную жизнь в виде всевозможных гаджетов и программ для них. Так что получается, что сильный и слабый ИИ это не просто две трактовки ИИ, это две, в общем-то, разные программы его развития. Обе они, насколько мне известно, успешно развиваются в нашей стране.

ПРИДАВАТЬ КАЧЕСТВА СУБЪЕКТА МАШИНЕ ПРЕДСТАВЛЯЕТСЯ МНЕ РАЗНОВИДНОСТЬЮ БЕЗУМИЯ

Законодателей, исследователей и разработчиков волнует, будут ли соответствовать алгоритмы ИИ принципам справедливости и непредвзятости. Как свидетельствуют исследования, Google с большей вероятностью станет показывать объявления о высокооплачиваемых вакансиях мужчинам-соискателям, а не женщинам. Высказываются опасения, что ИИ может воспроизводить общественные предрассудки, усиливать дискриминацию, усугублять предубеждения. Вы разделяете эти опасения? Не считаете их необоснованными или по крайней мере преждевременными?

- Любая технология, созданная руками человека, может работать в соответствии с представлением о справедливости или вести к нарушениям таких представлений. В этом отношении ИИ не исключение. Чем больше процедур мы автоматизируем, доверяя их выполнение некоторым устройствам, тем больше опасность того, что при их создании мы не учтем какие-то важные нюансы, и то, что задумано в пользу, на самом деле будет приносить вред. Еще раз повторю, я разделяю эти опасения относительно технологий слабого ИИ.

Сегодня юристы ведут споры о правосубъектности ИИ. Наверное, эти споры навеяны тем "головокружением от успеха", которое вызвано моделированием роботов с человеческой внешностью (примером такого робота является гастролирующий по разным странам и дающий интервью гиноид София с внешностью Одри Хепберн, кстати, в 2017 году он стал подданным Саудовской Аравии). Безусловно, деятельность, связанная с использованием ИИ, может стать объектом правового регулирования, но придавать качества субъекта машине, пускай даже очень "умной", представляется мне разновидностью безумия. Кроме того, личность - это не только интеллект, но и определенный эмоциональный склад. Способна ли "умная машина" испытывать чувства, эмоции, переживания, симпатию, особенно если компьютерная программа - не телесна, а значит, не может испытывать физической боли и страданий? Ответ на этот вопрос должны дать ученые-гуманитарии, специалисты по изучению личности.

Как найти верный баланс между технологическим развитием и защитой прав человека? Какую роль здесь может сыграть государство? Нужны ли специальные органы, которые будут следить, чтобы этот баланс соблюдался?

- Уже сейчас кодекс по этике ИИ предполагает позицию уполномоченного по этике ИИ. Наверное, в крупных IT-корпорациях приходит понимание, что им нужны аналитики - философы, социологи, этики, специалисты по коммуникации. Сегодня мы вообще сталкиваемся со своего рода этизацией жизни, однако беда, когда этика понимается чересчур формально: ни один кодекс не действует автоматически, он должен быть тонко настроен, должен согласовываться с мнениями и обиходным поведением людей, привычкой. Очевидно, что каждая область профессиональной практики сталкивается с различными особенностями применения искусственного интеллекта. Если для военных ИИ - это безжалостная боевая машина, не знающая страха, то для социального работника он - помощник и утешитель для тех, кому нужна помощь. В разных областях должны быть разработаны свои регламенты применения искусственного интеллекта, соотнесенные с их профессиональными этическими декларациями. В этом плане общий этический кодекс имеет лишь формальное значение. Время упоения техникой, технологического утопизма, мне кажется, прошло. Хотя об опасности механического использования технологий еще в 60-е годы прошлого века писал Станислав Лем.

ИИ - ЭТО ВСЕГО ЛИШЬ ИНСТРУМЕНТ, ПУСКАЙ И ОЧЕНЬ ВЫСОКОТЕХНОЛОГИЧНЫЙ

Алгоритмы ИИ помогают ранжировать людей в зависимости от одобряемого властями поведения - неугодным могут отказать в выдаче кредита и социальных выплатах, запретить покидать страну или работать в определенных сферах. А ВОЗ недавно опубликовала доклад, в котором требует при разработке тестировать алгоритмы ИИ на эйджизм - дискриминацию людей по возрасту. Иными словами, потенциальных угроз, связанных с ИИ, великое множество, но надо ли все их учитывать? Не станет ли скрупулезный учет этих угроз тормозом для развития ИИ?

- Как говорит мой коллега, логик Дмитрий Зайцев, с которым мы беседовали об ИИ на университетской экспертной площадке "Диалог о настоящем и будущем", "автомобили в свое время вытеснили повозки, а вместе с ними и извозчиков. Но на смену им пришли шоферы". Будем надеяться, что в ответ на наши опасения "хитрый крот истории" придумает что-нибудь интересное. Я вспомню недавнее упование на наукометрию, на то, что подсчет квартилей, хиршей, скопусов сможет объективно оценить труд ученых. Без экспертной оценки, то есть без человека, здесь не обойтись. Нужно помнить, что ИИ - это всего лишь инструмент, пускай и очень высокотехнологичный, который изобретен человеком для человеческих же нужд. Как любой инструмент, он может быть использован и во благо человека, и во вред ему. Искусственное распознавание лица применяется и для бесконтактной оплаты в метро, и для поиска преступника с помощью видеокамер наружного наблюдения. Вспоминаю (без всякой ностальгии) "социальный мониторинг" недавних времен пандемии. Тогда, кажется, я впервые возненавидел свой смартфон. Нужно было по запросу каждые два часа фотографировать себя и отправлять. Поначалу гаджет упорно не хотел подтверждать, что я - это я. Оказалось - дело в освещенности помещения, в ракурсе. Вспомним романтическую тему "двойника", которая в русской культуре звучала достаточно инфернально, у того же Достоевского. Где уверенность, что даже самые совершенные системы распознавания, основанные на работе ИИ, могут не только не узнать тебя, но и принять за тебя кого-то другого. Цифровой двойник человека может начать жить вполне самостоятельной жизнью. Но и ИИ - плод рук человеческих - тоже может оказаться "двойником" человека, причем реализующим подспудные, иногда довольно садистические интенции.

УЗКИЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ НУЖДАЕТСЯ НЕ ТОЛЬКО В ПРАВОВОМ РЕГУЛИРОВАНИИ И ОБЕСПЕЧЕНИИ ЗАЩИТЫ ПРАВ ЧЕЛОВЕКА ОТ МАШИНЫ

Представители компаний, которые работают с ИИ, не согласны с мрачными прогнозами. Они уверены, что искусственный интеллект сам по себе не опасен и не нуждается в жестком регулировании. Но, может, они правы? Может, угрозу несет не технология, а люди, которые могут использовать ее неумело или неправильно?

- Технологии ИИ в этом отношении не являются прозрачными - зачастую мы не отдаем себе полный отчет в том, как нечто будет работать и к каким последствиям приведет. Поэтому здесь, наверное, налицо сплав человеческого фактора с особенностями новых технологий. У нас есть национальное увлечение - забивать гвозди хрустальной вазой, и, надо отметить, иногда это даже может получиться. Такие специалисты во многом исходят из устаревшего понимания искусственного интеллекта как запрограммированной машины, но ведь сейчас это может быть саморазвивающаяся компьютерная программа, молниеносно анализирующая громадные объемы информации, которая уже успешно учится коммуницировать с другими программами. В их развитии есть момент неясности и риска, как и при создании любых значимых технологий. Поэтому выпускать полностью из-под контроля данные разработки кажется опрометчивым.

ПОНЯТИЕ ЭТИКИ ПРИМЕНИМО НЕ К ИИ, А К ЕГО ПОЛЬЗОВАТЕЛЮ

Сегодня в мире принято более 100 самостоятельных документов в сфере этики ИИ на самых разных уровнях - от локальных корпоративных до международных. Но стоит ли вообще применять понятие "этика" к искусственному интеллекту? Если ИИ пока не может принимать решения самостоятельно, то и понятие этики к нему неприменимо.

- Да, этическое регулирование сильного ИИ пока далеко от реальности, но это не значит, что этика в области искусственного интеллекта вообще не применима. Узкий искусственный интеллект нуждается не только в правовом регулировании и обеспечении защиты прав человека от машины, это регулирование основано на решении целого ряда именно этических проблем. Прежде всего это уменьшение рисков, связанных с применением ИИ, - отсутствие дискриминации по гендерным, религиозным, сексуальным, возрастным и прочим основаниям, непричинение вреда, ответственность за принятие решений, которая лежит всегда на человеке. Поэтому понятие этики применимо не к ИИ, а к его пользователю, к человеку, точно так же, как этическому регулированию подлежат и другие сферы профессиональной деятельности - врачебная, преподавательская и прочие. Как говорит мой коллега Алексей Скворцов, специалист в области прикладной этики, "пока не ясно, как этическое регулирование воспримут сами машины и какой кодекс они бы сами создали".

В октябре 2021 года около двух десятков крупных российских компаний и организаций подписали Кодекс этики искусственного интеллекта (ИИ). Документ является добровольным к исполнению и закрепляет базовые требования к применению этой технологии. Может ли такой кодекс дать хотя бы минимальные гарантии, что искусственный интеллект не станет инструментом дискриминации или ущемления прав человека? Как вам видятся пути регулирования ИИ?

- Я думаю, что, с одной стороны, мы просто не можем сегодня предвидеть все аспекты ИИ, которые будут нуждаться в регулировании. Любое явление развивается, и создаются новые сферы, подлежащие как правовому, так и нравственному выбору. С другой стороны, если сегодня не вести такую работу, то без накопленного теоретического базиса и практики применения выработанных регулирующих положений, что называется, "с нуля" такой кодекс или иной документ разработать будет практически невозможно. Поэтому, как мне представляется, кодексы этики ИИ и иные регулирующие документы в каждой области социальной практики надо разрабатывать уже сейчас, проводя их апгрейды по мере необходимости. Это процесс исторически длительный, но иного пути нет.

Визитная карточка

 (jpg, 199 Kб)

Алексей Козырев - кандидат философских наук, и.о. декана философского факультета МГУ. Родился в Москве в 1968 году. Окончил философский факультет МГУ. Проходил стажировку в Женевском университете, Высшей школе гуманитарных наук и Свято-Сергиевском православном богословском институте в Париже. В 1997 году защитил кандидатскую диссертацию по теме "Гностические влияния в философии Владимира Соловьева". Основные работы посвящены истории русской философии конца XIX - начала XX в. (В.С. Соловьев, С.Н. Булгаков, К.Н. Леонтьев, В.Н. Ильин). Автор книги "Соловьев и гностики". Вел авторские программы на радиостанциях "Вера", "Русская служба новостей", "Радонеж", "София".

 



©РАН 2024