Что такое ИИ?

Искусственный интеллект (ИИ) — это технология, позволяющая с помощью компьютерных систем моделировать такие процессы человеческого мозга, как способность к обучению, возможность решать задачи, принимать решения, творить и действовать самостоятельно.

Как используют ИИ?

Организации применяют ИИ, чтобы продвигать инновации, расширять возможности своих сотрудников и оптимизировать бизнес-операции. В зависимости от способа реализации, возможности ИИ часто подкрепляются предиктивной аналитикой, машинным обучением и другими функциональными возможностями. Некоторые из примеров использования ИИ:

  • обучение ИИ-моделей в дата-центрах;
  • «умные» чат-боты для оказания помощи клиентам;
  • оптимизация управления цепочками поставок;
  • автоматизация, позволяющая освободить сотрудников и ресурсы от выполнения рутинных задач;
  • помощь в генерировании идей и креативных мозговых штурмах;
  • ускорение ответов на запросы;
  • ускорение процесса принятия решений;
  • снижение затрат благодаря оптимизации и автоматизации с помощью ИИ;
  • перевод текста, аудио или речи;
  • быстрое обобщение результатов исследований и статистических данных.

AI PC

Аппаратное оборудование, с помощью которого мы внедряем инновации, оптимизируем процессы и управляем повседневными операциями, меняется. В компьютерной индустрии важнейшую роль играют современные архитектурные подходы, такие как RISC (Reduced Instruction Set Computer), широко известный как архитектура ARM, и CISC (Complex Instruction Set Computer) — архитектура набора команд x86. Apple, Microsoft, Broadcom, Intel и другие компании вкладывают значительные средства в технологии, которые способствуют развитию ИИ. Благодаря этому мы вступили в эпоху AI PC («ПК с искусственным интеллектом»). Такие системы оптимизированы для решения широкого спектра задач с использованием ИИ: распознавание речи, обработка естественного языка, машинное обучение и многое другое. ИИ-аппаратура ускоряет обработку алгоритмов искусственного интеллекта непосредственно на устройстве, позволяя выполнять обучение и ИИ-инференс даже на обычных машинах.

Дата-центры с ИИ

Для глубокого обучения и тренинга моделей ИИ организации используют ресурсы высокопроизводительных дата-центров с их повышенной пропускной способностью. В таких дата-центрах установлено большое количество оборудования, включая графические процессоры (GPU) и системы ускорения ИИ. В недавней статье Forbes отмечается, что они обеспечивают «значительные вычислительные возможности», потребляя огромное количество энергии, и даже требуют самых современных решений для охлаждения.

Что такое SOC на базе ИИ?

В центрах SOC могут использовать ИИ для более эффективного распределения ресурсов и снижения уровня рисков. Благодаря глубокому обучению, автоматизации и другим возможностям ИИ ускоряется процесс выявления рисков и принятия ответных мер, особенно если применяется платформа кибербезопасности, которая объединяет решения и интегрирует ИИ, чтобы сделать процессы обеспечения безопасности еще эффективнее.

Как ИИ может угрожать безопасности

Такие инструменты, как ChatGPT, OpenAI и Microsoft Copilot легко доступны, поэтому злоумышленники непрерывно пытаются с их помощью получить доступ к конфиденциальным данным. В некоторых случаях цель атаки — перехватить управление поведением ИИ-инструментов и использовать их не по назначению. Основные риски, которые ИИ создает для безопасности — выход ИИ из-под контроля (rogue AI), автоматизация мошенничества и утрата полного контроля над данными.

Требуется постоянно опережать киберпреступников, внедряя технологии ИИ с учетом рисков и в соответствии с требованиями законодательства. Чтобы осуществить эту стратегию, необходимо полностью понимать риски безопасности, которые может создать ИИ.

Политики компаний в отношении ИИ

Политика, учитывающая риски и содержащая рекомендации по правильному использованию ИИ — важный ориентир для сотрудников. Чтобы свести к минимуму риск, которому подвергается ваша организация, необходимо соблюдать и своевременно обновлять эти правила. Для соблюдения требований регуляторов и обеспечения эффективной защиты данных также необходимо создать правильные политики и процедуры. При разработке политики в области ИИ полезно ознакомиться с примерами от федеральных и отраслевых регуляторов, а также сотрудничать по этому вопросу с организациями, которые аналогичны вашей.

Дипфейки

По мере развития технологии генеративного ИИ дипфейки (DeepFake) становятся все убедительнее. Они представляют собой серьезную угрозу для безопасности данных, поскольку злоумышленники с их помощью манипулируют отдельными лицами или группами людей, поверивших в подлинность и достоверность поддельного изображения, видео или текста. Независимо от того, использовали киберпреступники ИИ или нет, их намерения неизменны: ввести в заблуждение, украсть, обманом что-то выманить.

Как обезопасить ИИ

Чтобы разработать эффективные меры кибербезопасности, нужно понимать, как функционируют системы ИИ, в том числе, как они используют и, возможно, сохраняют данные. Организации продолжают генерировать инновационные идеи и внедрять ИИ для их реализации, а злоумышленники в это время применяют ИИ в своих целях, чтобы воспользоваться уязвимостями. Поскольку ландшафт угроз постоянно развивается вместе с развитием самого ИИ, организациям следует обеспечить проактивную защиту внедряемых решений ИИ.

Некоммерческая организация OWASP (Open Web Application Security Project) в своем обзоре безопасности ИИ дает следующие рекомендации:

  • выполняйте требования регуляторов по использованию ИИ;
  • усильте практики обеспечения безопасности в соответствии с OWASP assets and controls, а также применяйте решения безопасности на основе ИИ;
  • убедитесь, что ваши поставщики решений ИИ внедрили актуальные защитные средства;
  • снижайте воздействие от внедрения ИИ, ограничив доступ к данным в соответствии с принципом минимальных привилегий;
  • ограничьте скорость передачи данных — чтобы предотвратить неподконтрольное использование и «отказ в обслуживании» (DoS, Denial-of-service);
  • внедряйте защитные меры — организуйте процессы надзора, включая вмешательство человека.

OWASP дает дополнительные рекомендации для разработчиков собственных систем ИИ:

  • включайте дата-инженеров и ИИ-инженеров в процесс разработки безопасного программного обеспечения;
  • изучайте угрозы ИИ и применяйте соответствующие процессы и технические средства обеспечения безопасности.

Дополнительные сведения и техническую информацию вы найдете в обзоре OWASP по безопасности ИИ.

Безопасность данных для машинного обучения

Генеративный ИИ (GenAI) использует возможности машинного обучения для анализа данных и творческой работы, при этом возникают новые риски. «При защите данных для машинного обучения необходимо также учитывать целостность данных при их передаче и обработке, – говорится в статье Global Cybersecurity Alliance (GCA). – Нарушение целостности данных может исказить результаты моделирования. Это может привести к неточным или предвзятым решениям с далеко идущими последствиями».

В статье предлагаются проактивные действия:

  • контроль доступа и аутентификация;
  • регулярный мониторинг и аудит данных;
  • обезличивание и псевдонимизация данных;
  • безопасный совместный доступ.

Что такое ИИ-модель?

ИИ-модель (модель искусственного интеллекта) —- это компьютерная программа, обученная на наборах данных распознавать определенные шаблоны. Это позволяет системе выполнять различные задачи, например, делать прогнозы или генерировать контент, и принимать решения самостоятельно. ИИ-модели могут отвечать на запросы, отыскивать закономерности в данных, распознавать поведение и решать множество других задач. В ходе обучения ИИ-модель обычно изучает параметры (переменные), помогающие определить наилучший инференс, который модели затем выдадут.

В зависимости от того, какие у организации потребности, цели, требования комплаенса и бюджет, можно, с учетом других факторов, выбирать из широкого спектра те ИИ-модели, которые подходят вам для внедрения. Важно отметить, что у каждой ИИ-модели свой собственный уровень риска, и что следует принимать во внимание различные типы ИИ-моделей.

Типы ИИ-моделей

Слабый (ограниченный) ИИ

Большая часть наиболее широко внедренных и признанных технологий ИИ называется слабым ИИ, который разработан и обучен для выполнения конкретных задач, чаще всего в рамках одной области знаний Слабый ИИ используют, например: текстовые чат-боты на порталах поддержки клиентов, виртуальные помощники, такие как Siri или Google Assistant, и программы для определения языка с функцией автоматического перевода.

По определению IBM Data and AI Team, существуют две функциональные категории слабого ИИ:

Реактивные машины

Эти системы ИИ не имеют памяти и опираются только на ту информацию, которую получают в настоящий момент. Они могут активно взаимодействовать с окружающей средой и пользователями, но не запоминая полученные данные, не могут использовать полученный опыт и совершенствоваться. Рекомендации по контенту, встроенные в платформы потокового вещания и социальных сетей, а также инструменты, предназначенные для предиктивного анализа данных в режиме реального времени, используют ИИ типа реактивная машина.

ИИ с ограниченной памятью

У этих систем ИИ есть память, поэтому они могут использовать как текущие данные, так и прошлый опыт для принятия оптимальных решений. «Ограниченность» заключается в том, что предоставленные вами данные не хранятся бесконечно долго, то есть память, по сути, кратковременная. Тем не менее полученные данные используются для постоянной оптимизации результативности и возможностей системы. Иными словами, окружающая среда и полученная информация помогают обучить этот ИИ, как лучше реагировать. Кстати, виртуальные помощники тоже относятся к этой категории.

Генеративный ИИ

Модели слабого ИИ широко применяются на практике, наряду с этим большое внимание, а также крупные инвестиции, привлекают модели генеративного ИИ (GenAI), который в англоязычной литературе часто называют frontier AI. Это еще более продвинутые, экспериментальные и перспективные модели ИИ. Как следует из самого названия, генеративный ИИ предназначен для генерирования контента либо на основе запросов, либо с использованием имеющихся данных. Яркие примеры использования моделей GenAI — GPT-4 и Google Gemini Ultra.

Отчет 2024 г. от Стэнфордского университетаArtificial Intelligence Index представил такие данные: стоимость обучения моделей GenAI достигла «беспрецедентного уровня», на один только только Google Gemini Ultra потрачено 191 млн долл. США. Кроме того отмечается, что промышленность опережает науку в области исследований ИИ. В 2023 году промышленные предприятия разработали 51 значимую модель машинного обучения, в то время как академические круги — лишь 15 моделей. Совместные усилия привели к созданию 21 значимой модели. В отчете также говорится, что, несмотря на сокращение частных инвестиций в 2022 году, объем финансирования GenAI вырос до 25,2 млрд долл. США, и все основные игроки [...] сообщили о раундах привлечения значительных средств.

Краткое описание типов ИИ-моделей

«Традиционный слабый ИИ отлично справляется с распознаванием шаблонов, а генеративный — с их созданием. Традиционный ИИ анализирует данные и сообщает вам, что он видит, а генеративный ИИ использует те же данные для создания чего-то совершенно нового», — резюмирует Бернард Марр (Bernard Marr) в в своей книге The Difference Between Generative AI and Traditional AI: An Easy Explanation for Everyone (Forbes). «Как традиционный, так и генеративный ИИ играют важную роль в формировании нашего будущего, они оба открывают перед нами уникальные возможности. Использование этих передовых технологий будет иметь решающее значение для компаний и частных лиц, которые пытаются вырваться вперед в условиях стремительно меняющего цифрового ландшафта».

Немного ИИ-терминологии

Алгоритм

Набор пошаговых инструкций, предназначенный для решения проблемы или выполнения задачи. Алгоритм задает порядок действий, которые выполняет компьютер.

Глубокое обучение

Это подраздел машинного обучения, суть которого в том, чтобы построить некий алгоритм, который позволял бы обучаться на больших объемах данных подобно нейросети человеческого мозга. «Глубокое» намекает на большое количество слоев, в которые организованы искусственные нейроны. Глубокое обучение отлично справляется с распознаванием изображений и речи, обработкой естественного языка и с распознаванием более сложных шаблонов.

ИИ-агенты

Это системы, которые на основе восприятия окружающей среды могут автономно принимать решения. ИИ-агент использует датчики для сбора информации и алгоритмы для принятия решений, выполнения действий и оценки их последствий. Агент со временем может обучаться и приспосабливаться к обстановке.

Синтетические медиа

Это контент, созданный или обработанный с помощью методов ИИ, например, глубокого обучения. К нему относятся сгенерированные изображения, видео и аудио, которые имитируют элементы реального мира, размывая грань между подлинностью и подделкой.

Большая языковая модель (LLM, Large language model)

LLM — это ИИ-модели с миллиардами параметров, например GPT-4, обученные на больших наборах текстовых данных для понимания и генерации текста, подобного написанному человеком. LLM позволяет выполнять различные задачи и приложения, связанные с обработкой естественного языка. Для современных LLM-моделей в основном используется архитектура трансформеров.

Базовая модель (Foundation Model)

Обычно это обученные на огромном наборе данных модели глубокого обучения, которые могут стать основой приложений для решения широкого спектра задач без специальной подготовки. LLM также относятся к базовым моделям, которые применяются для языка, кода, изображений, аудио, или могут быть мультимодальными, то есть обрабатывать несколько типов данных одновременно, например: текст, видео и изображения. Базовые модели также можно настраивать для специализированных приложений, типа чат-ботов.

Исследования по теме

Статьи по теме