http://93.174.130.82/news/shownews.aspx?id=29f51ac3-442b-410f-8ada-e79f447b1ecf&print=1© 2024 Российская академия наук
МОСКВА, 26 октября. /ТАСС/. Уверенность в безопасности использования технологий искусственного интеллекта (ИИ) может возникнуть у общества только при наличии соответствующих результатов технических испытаний этих устройств и систем. Такое мнение высказал корреспонденту ТАСС директор Института системного программирования им. Иванникова РАН Арутюн Аветисян на форуме "Этика искусственного интеллекта: начало доверия".
Ученый подчеркнул, что этичное использование технологий ИИ предполагает принцип "не навреди" по отношению к людям. К примеру, человек при общении с чат-ботом должен быть уведомлен о том, что общается с неодушевленным собеседником.
"Очень важно, чтобы мы могли не просто доверять ИИ, а чтобы это была "проверяемая доверенность". Чтобы мы могли доверять именно потому, что можем технологически проверить. <...> Например, что можно использовать беспилотный автомобиль, или он напрямую не может использоваться, и все-таки водитель должен сидеть и контролировать процесс. Пока мы технологически не можем обеспечить такую проверку, ни о каком доверии не может быть и речи", - сказал Аветисян.
Ученый также отметил важность разработки в России Кодекса этики искусственного интеллекта, который должен стать частью федерального проекта "Искусственный интеллект" и стратегии развития информационного общества на 2017-2030 гг. Подписание этого документа, в котором принял участие представитель РАН, состоялось во вторник на площадке форума.
"Кодекс сам по себе очень важен, потому что он определяет те границы, в рамках которых мы [могли бы] прийти к консенсусу в обществе - между всеми нами, включая тех, кто ничего не понимает в этих технологиях", - отметил Аветисян.
Этика ИИ в медицине
Директор по цифровизации госкорпорации "Росатом" Екатерина Солнцева, которая также приняла участие в церемонии подписания кодекса, сказала о необходимости подходов, которые бы оценивали точность и объективность решений систем на основе технологий ИИ. Это особенно важно в медицинской сфере, считает она.
"Если конкретный человек получает отказ от искусственного интеллекта по кредиту или, еще хуже, получает неправильный диагноз, который поставил ИИ, то всегда должна быть возможность верификации полученного ответа. Ровно так же, как это происходит в случае решений, принимаемых естественным интеллектом. Решения ИИ совершенно точно не должны стать более значимыми, чем человеческие. Этика ИИ - чрезвычайно актуальная тема. Но уже сегодня необходимо думать о следующих шагах, так как в скором времени на повестку дня выйдут вопросы этичного использования других прорывных цифровых технологий, в том числе - нейроморфных и квантовых", - сказала Солнцева.
Международный форум "Этика искусственного интеллекта: начало доверия" организован 26 октября при поддержке правительства РФ в пресс-центре ТАСС в Москве. В число обсуждаемых тем вошли этические принципы разработки и применения ИИ, меры господдержки в этой сфере, механизмы внедрения технологий в приоритетных отраслях, мировые практики регулирования и стандарты международного взаимодействия. Ключевым событием форума стало подписание кодекса этики искусственного интеллекта, разработанного с учетом требований национальной стратегии развития искусственного интеллекта на период до 2030 года. Авторы кодекса - Альянс в сфере искусственного интеллекта совместно с Аналитическим центром при правительстве РФ и Минэкономразвития.
Источник: ТАСС