Ассоциация менеджеров обсудила этические аспекты использования ИИ
27 августа состоялось заседание Комиссии по бизнес-этике Ассоциации менеджеров на тему «Этика и искусственный интеллект». Встреча была посвящена этическим аспектам использования новых технологий и искусственного интеллекта. Приглашенные эксперты обсудили, можно ли определить, насколько решения, принятые искусственным интеллектом на основе своих алгоритмов, соответствуют этическим нормам, насколько в целом этично использование искусственного интеллекта и какие стереотипы с этим связаны, а также как использование искусственного интеллекта может повлиять на человеческое достоинство и права человека.
Модератором дискуссии выступил Николай Обрезков, генеральный директор коммуникационной группы «Орта», председатель Комитета по бизнес-этике Ассоциации менеджеров.
«С точки зрения применения искусственного интеллекта, максимально актуальными являются вопросы предвзятости и справедливости при принятии автоматизированных решений, которые могут приводить к дискриминационным последствиям, например, в сфере образования и не только, а также вопросы безопасности и защиты от неправомерного использования конфиденциальной информации, поскольку ИИ часто используют для обработки больших массивов данных», – отметил Николай Обрезков.
В ходе встречи приглашенные эксперты обсудили вызовы, возникающие для компаний в контексте кибербезопасности, а также открыли дискуссию о том, кто несет ответственность за деятельность ИИ – IT-разработчик, бизнес или регулятор, например, в случае ДТП с участием беспилотного транспортного средства, управляемого ИИ.
Максим Бузинов, руководитель R&D лаборатории Центра технологий кибербезопасности ГК «Солар» считает, что ИИ – это прежде всего инструмент, и в руках сотрудников информационной безопасности этот инструмент обеспечивает защиту банковских сведений, коммерческой тайны, персональных данных, медицинской тайны, конструкторской документации, интеллектуальной собственности и другой чувствительной информации. ИИ позволяет осуществлять детектирование цифровых аномалий, сложных и таргетированных атак и фишинга, быстро выявлять скрытые угрозы и обеспечивать поддержку принятия решений сотрудникам по информационной безопасности.
«Для нас, атомщиков, основной приоритет – это сплав искусственного интеллекта с мирным атомом, мы видим значительный потенциал в «Промышленном ИИ». Помимо технологического суверенитета, «Росатом» несет ответственность за обороноспособность нашей страны, поэтому мы четко понимаем важность тандема нейросетей и ядерных технологий, которые уже развиваются во многих странах», – подчеркнул Дмитрий Тимофеев, руководитель направления АО «Росатом-Недра».
Подавляющее большинство россиян (85%) считают важным создание свода правил этики для организаций, ведущих разработки в сфере ИИ. При этом две трети из них убеждены, что он должен носить обязательный характер. 67% наших сограждан выразили мнение, что технологии ИИ нужно использовать избирательно, только в некоторых сферах. Кроме того, 77% опрошенных уверены, что требуется обязательное участие человека в оценке этичности продуктов и решений, созданных ИИ, сам ИИ на такое не способен. Такие актуальные данные привел Андрей Даудрих, директор департамента социальных исследований и консалтинга ВЦИОМ.
«Постоянные инвестиции в информационную безопасность – это необходимость, злоумышленники крадут персональные данные, учетные данные и коммерческие тайны. Последствия кибератак приводят к нарушениям деятельности компаний, зачастую они сопровождаются полной утратой чувствительной для бизнеса информации, а самым уязвимым звеном при совершении кибератак всегда являются люди, с использованием ИИ их легче обмануть. Поэтому так важно проводить внутренние проверки и тренинги для сотрудников, моделирующие потенциальные сценарии кибератак», – уверен Артем Попов, руководитель направления New Media агентства digital-маркетинга Icontext.
Павел Пучков, главный редактор Maxim Online, подчеркнул важность фактчекинга при использовании ИИ в медиа индустрии, в противном случае медиа сталкиваются с подрывом доверия к источникам. В редакционной работе этика искусственного интеллекта все равно является этикой человеческой. Эксперт призвал средства массовой информации быть этичными по отношению к читателю, а ИИ использовать в большей степени в формате развлечения, а не в качестве эксперта.
«В глобальном контексте цифровая трансформация и устойчивое развитие были двумя наиболее значимыми мировыми тенденциями последнего десятилетия. До недавнего времени у каждого из них был свой фокус развития. Сегодня пришло время интегрировать эти направления, чтобы минимизировать риски и избежать возможного ущерба, который может быть несоизмерим с пользой, получаемой от использования цифровых технологий. Бизнес может это сделать, руководствуясь принципами корпоративной цифровой ответственности – обязанностями компании, связанными с рисками и возможностями использования цифровых технологий. Этичное использование предполагает продвижение равенства и инклюзивности, избегание дискриминации, защиту приватности, просвещение и прозрачное объяснение принципов работы используемых алгоритмов», – считает Ирина Ефремова-Гарт, директор по устойчивому развитию компании «Мобиус Технологии».
Полина Мотосова, digital эксперт, маркетинговый консультант, экс-Head of Digital Дикси, отметила, что маркетинг в крупных компаниях пользуется ИИ и нейросетями, но пока только руками подрядчиков, так как до сих пор нет договоренности, кому принадлежит результат интеллектуальной собственности. Сейчас на рынке есть точное понимание, что ИИ не заменит дизайнеров и других сотрудников, однако сам уже стал незаменимым инструментом в работе маркетолога.
В завершение дискуссии участники пришли к общему выводу, что в условиях быстрого распространения IT-технологий компаниям следует учитывать этические принципы, а также стремиться делать технологии доступными и безопасными для всех пользователей. Такие усилия позволят компаниям не только укрепить свою репутацию, но и будут способствовать росту доверия со стороны клиентов, партнеров, сотрудников и инвесторов.