Правительство США предпринимает серьезные шаги для обеспечения безопасного и ответственного использования технологий искусственного интеллекта (ИИ) в государственном секторе. В свете растущего применения ИИ в различных областях деятельности федеральных ведомств, администрация Байдена ввела новые правила и требования, направленные на усиление контроля и управления системами ИИ.
Назначение старших руководителей по ИИ
Согласно новому руководству, объявленному вице-президентом Камалой Харрис, все федеральные агентства США теперь обязаны назначить старшего руководителя, ответственного за надзор и координацию всех систем искусственного интеллекта, используемых ведомством. Эти руководители, называемые главными специалистами по искусственному интеллекту (Chief AI Officers, CAIO), должны обладать соответствующим опытом, знаниями и полномочиями для эффективного мониторинга внедрения и использования технологий ИИ в рамках своих организаций.
Цель назначения CAIO заключается в обеспечении ответственного применения ИИ в государственном секторе и снижении потенциальных рисков, связанных с этими передовыми технологиями. Администрация Байдена считает, что наличие высокопоставленных должностных лиц, специально отвечающих за ИИ, позволит осуществлять более тщательный контроль и управление в этой области.
Создание советов по управлению ИИ
Помимо назначения CAIO, федеральные агентства должны создать советы по управлению искусственным интеллектом. Эти комитеты будут координировать использование ИИ в пределах ведомства и обеспечивать соблюдение установленных правил и стандартов.
Обязательная отчетность и оценка рисков
В соответствии с новыми указаниями, федеральные агентства обязаны ежегодно представлять в Административно-бюджетное управление (OMB) отчеты, перечисляющие все используемые ими системы ИИ, любые связанные с ними риски и планы по снижению этих рисков.
Ведомства также должны будут проводить независимую оценку рисков безопасности для каждой используемой ими платформы ИИ. Если какие-либо системы ИИ считаются слишком «чувствительными», чтобы включить их в публичный список, агентство должно обосновать причины их исключения.
Обеспечение справедливости и прозрачности
Одной из ключевых задач, стоящих перед CAIO и советами по управлению ИИ, является обеспечение того, чтобы внедряемые системы ИИ соответствовали гарантиям, снижающим риски алгоритмической дискриминации и обеспечивающим прозрачность использования ИИ правительством для общественности.
Наращивание потенциала в области ИИ
В дополнение к новым правилам и требованиям, правительство США планирует нанять 100 специалистов по искусственному интеллекту к лету 2023 года. Это позволит федеральным ведомствам укрепить свой кадровый потенциал в области ИИ и обеспечить более эффективное внедрение и управление соответствующими технологиями.
Некоторые агентства, такие как Министерство юстиции, уже начали назначать CAIO и формировать специализированные команды экспертов по ИИ для определения возможностей и рисков использования этих технологий в их сферах деятельности.
Подытожим
Принятые меры демонстрируют серьезность намерений правительства США в обеспечении безопасности и ответственности при использовании искусственного интеллекта в государственном секторе. Назначение старших руководителей по ИИ, создание управляющих советов, обязательная отчетность и оценка рисков, а также наращивание кадрового потенциала в области ИИ – все эти шаги направлены на то, чтобы извлечь максимальную пользу из передовых технологий ИИ при одновременном снижении связанных с ними рисков.
Соблюдение новых правил и тщательный контроль со стороны федеральных агентств имеют решающее значение для обеспечения доверия общественности и создания надежной нормативной базы для безопасного и этичного внедрения искусственного интеллекта в государственном секторе.