Ответственный ИИ Центральная Азия

Goals and objectives

Наша программа направлена на обеспечение прозрачности, подотчетности, объяснимости, ответственности, интерпретируемости и надежности при развертывании систем искусственного интеллекта. Мы стремимся защищать права и достоинство человека, продвигая подход к ИИ, основанный на правах человека. Ключевые цели включают в себя:
  • Повышение алгоритмической грамотности, навыков искусственного интеллекта и грамотности в области искусственного интеллекта среди членов гражданского общества, средств массовой информации, некоммерческих организаций, членов сообщества, а также правительственных учреждений и министерств.
    Внедрение и обеспечение соблюдения этики ИИ для защиты прав человека, свобод, демократии и верховенства закона.
    Регулярный мониторинг региональных и национальных систем искусственного интеллекта для обеспечения надежности, целостности и соблюдения этических норм на протяжении всего их жизненного цикла.
    Поощрение субъектов ИИ назначать сотрудников по этике ИИ для надзора, оценки воздействия, аудита и постоянного мониторинга систем ИИ.
    Содействие трансграничному сотрудничеству между странами и секторами Центральной Азии для разработки стандартов и продвижения ответственного управления ИИ.
    Повышение осведомленности о международных структурах, таких как Рекомендация ЮНЕСКО по этике ИИ, Принципы ОЭСР по ИИ, Закон ЕС об ИИ и по Биллю о правах ИИ США.

Инициативы по наращиванию потенциала. Мы предлагаем программы по наращиванию потенциала, специально разработанные для государственных служащих и государственных служащих, участвующих в развертывании ИИ. Мы намерены разработать программы обучения для таких групп, как судьи и члены судебных органов, чтобы улучшить их понимание законов и правил, связанных с ИИ.

Ключевые бенефициары: Наша программа в первую очередь приносит пользу членам гражданского общества, НПО, журналистам, правительственным учреждениям и министерствам.

Направления деятельности:

  • Алгоритмическое принятие решений
    Человеческий надзор
    Предотвращение алгоритмического вреда
    Автоматизированное принятие решений
    Алгоритмическое смещение
    Цифровые права
    Цифровая демократия
    ИИ для устойчивого развития
    Управление ИИ
    Авторегрессионные модели большого языка или генеративный искусственный интеллект
    Фундаментальные модели

Регионы стран: Наши усилия направлены на Казахстан, Кыргызстан, Таджикистан, Туркменистан и Узбекистан.

Ключевые слова: надежный ИИ, ответственный ИИ, этический ИИ, автоматизированное принятие решений, алгоритмическая прозрачность, алгоритмическая грамотность, генеративный ИИ.

#TrustworthyAI #EthicalAI #AIGovernance #CentralAsiaAI #AIforGood #AlgorithmLiteracy #DigitalRights #TechEthics

Команда

Aziz Soltobaev

Азиз Солтобаев ИИ

Азиз Солтобаев — многогранный профессионал на стыке технологий, политики и искусственного интеллекта. Имея богатый опыт в области цифровой политики и исследований, Азиз зарекомендовал себя как эксперт в области передовых технологий, внося значительный вклад в различные инициативы, направленные на формирование ответственного управления и внедрения ИИ.

Будучи членом Центра Стимсона и программы Microsoft Responsible AI, Азиз глубоко углубился в сложности этики, управления и регулирования ИИ. Программа Responsible AI рассмотрела возможности применения ИИ и оценила их влияние в развивающихся странах. Участники программы стремились понять, как вред и выгоды, связанные с ИИ, могут проявляться в различных социальных, культурных, экономических и экологических контекстах, а также определить технологические и нормативные решения, которые могли бы помочь снизить риски и максимизировать возможности (2023-2024 гг.).

Азиз успешно прошел программу фундаментальной сертификации AI Policy, организованную Центром искусственного интеллекта и цифровой политики (США). Программа сертификации представляет собой семестровый курс обучения политике и регулированию в области ИИ, предназначенный для специалистов-практиков в области ИИ, политиков, юристов, ученых и членов гражданского общества. Участники узнают об исследованиях, анализе политики в области ИИ и основных основах политики в области ИИ во всем мире (ОЭСР, G20, ЮНЕСКО, AIA ЕС, План Билля о правах ИИ, Совет Европы, Африканская резолюция по правам человека и т. д.). Программа сертификации является результатом работы Исследовательской группы и включает требования к исследованиям, написанию статей и анализу политики. Для получения сертификата CAIDP по политике ИИ необходимо пройти подробный многоэтапный тест. Предметы: история искусственного интеллекта, проблемы и институты искусственного интеллекта, регулирование искусственного интеллекта и методы исследования. Азиз получил сертификат с отличием и подписал Заявление о профессиональной этике политики в области ИИ.

Будучи членом программы Атлантического совета по искусственному интеллекту, Азиз имел честь узнать о возможностях и проблемах ответственной разработки и внедрения технологий искусственного интеллекта в различных секторах в соответствии с человекоориентированными ценностями, изложенными в Принципах искусственного интеллекта ОЭСР. В рамках региональных семинаров и посещений объектов Азиз изучал тематические исследования и передовой опыт, укреплял связи с выдающимися экспертами в области политики в области ИИ и профессионалами из разных уголков мира.

Его исследовательские усилия выходят за рамки теоретических рамок и переходят к практическим применениям, особенно в контексте Центральной Азии. Азиз участвовал в обзоре национальной политики Казахстана в области искусственного интеллекта и представлении страны в отчете об искусственном интеллекте и демократических ценностях, выпущенном CAIDP в 2023 году.

Помимо своего вклада в национальную политику, Азиз провел тщательную оценку ландшафта ИИ в Кыргызстане, предложив ценную информацию и рекомендации в своем обзоре национальной политики страны в области ИИ для Глобального индекса ответственного ИИ (GIRAI) в 2024 году. Глобальный индекс призван снабдить правительства, гражданское общество и заинтересованные стороны фактическими данными, необходимыми для продвижения основанных на правах человека принципов ответственного использования ИИ.

Интересы Азиза выходят за рамки традиционных парадигм искусственного интеллекта и охватывают новые технологии, такие как модели малых языков, такие как Phi-2, и область TinyML. Его дальновидный подход отражает острое понимание развивающейся среды ИИ и стремление исследовать инновационные пути использования потенциала ИИ на благо человечества.

Обладая богатым опытом и страстью к использованию ИИ для положительного воздействия на общество, Азиз Солтобаев продолжает оставаться движущей силой в формировании ответственного и справедливого внедрения искусственного интеллекта как в национальном, так и в глобальном масштабе.