Искусственный интеллект (ИИ) — это технология, позволяющая с помощью компьютерных систем моделировать такие процессы человеческого мозга, как способность к обучению, возможность решать задачи, принимать решения, творить и действовать самостоятельно.
Организации применяют ИИ, чтобы продвигать инновации, расширять возможности своих сотрудников и оптимизировать бизнес-операции. В зависимости от способа реализации, возможности ИИ часто подкрепляются предиктивной аналитикой, машинным обучением и другими функциональными возможностями. Некоторые из примеров использования ИИ:
Аппаратное оборудование, с помощью которого мы внедряем инновации, оптимизируем процессы и управляем повседневными операциями, меняется. В компьютерной индустрии важнейшую роль играют современные архитектурные подходы, такие как RISC (Reduced Instruction Set Computer), широко известный как архитектура ARM, и CISC (Complex Instruction Set Computer) — архитектура набора команд x86. Apple, Microsoft, Broadcom, Intel и другие компании вкладывают значительные средства в технологии, которые способствуют развитию ИИ. Благодаря этому мы вступили в эпоху AI PC («ПК с искусственным интеллектом»). Такие системы оптимизированы для решения широкого спектра задач с использованием ИИ: распознавание речи, обработка естественного языка, машинное обучение и многое другое. ИИ-аппаратура ускоряет обработку алгоритмов искусственного интеллекта непосредственно на устройстве, позволяя выполнять обучение и ИИ-инференс даже на обычных машинах.
Для глубокого обучения и тренинга моделей ИИ организации используют ресурсы высокопроизводительных дата-центров с их повышенной пропускной способностью. В таких дата-центрах установлено большое количество оборудования, включая графические процессоры (GPU) и системы ускорения ИИ. В недавней статье Forbes отмечается, что они обеспечивают «значительные вычислительные возможности», потребляя огромное количество энергии, и даже требуют самых современных решений для охлаждения.
В центрах SOC могут использовать ИИ для более эффективного распределения ресурсов и снижения уровня рисков. Благодаря глубокому обучению, автоматизации и другим возможностям ИИ ускоряется процесс выявления рисков и принятия ответных мер, особенно если применяется платформа кибербезопасности, которая объединяет решения и интегрирует ИИ, чтобы сделать процессы обеспечения безопасности еще эффективнее.
Такие инструменты, как ChatGPT, OpenAI и Microsoft Copilot легко доступны, поэтому злоумышленники непрерывно пытаются с их помощью получить доступ к конфиденциальным данным. В некоторых случаях цель атаки — перехватить управление поведением ИИ-инструментов и использовать их не по назначению. Основные риски, которые ИИ создает для безопасности — выход ИИ из-под контроля (rogue AI), автоматизация мошенничества и утрата полного контроля над данными.
Требуется постоянно опережать киберпреступников, внедряя технологии ИИ с учетом рисков и в соответствии с требованиями законодательства. Чтобы осуществить эту стратегию, необходимо полностью понимать риски безопасности, которые может создать ИИ.
Политика, учитывающая риски и содержащая рекомендации по правильному использованию ИИ — важный ориентир для сотрудников. Чтобы свести к минимуму риск, которому подвергается ваша организация, необходимо соблюдать и своевременно обновлять эти правила. Для соблюдения требований регуляторов и обеспечения эффективной защиты данных также необходимо создать правильные политики и процедуры. При разработке политики в области ИИ полезно ознакомиться с примерами от федеральных и отраслевых регуляторов, а также сотрудничать по этому вопросу с организациями, которые аналогичны вашей.
По мере развития технологии генеративного ИИ дипфейки (DeepFake) становятся все убедительнее. Они представляют собой серьезную угрозу для безопасности данных, поскольку злоумышленники с их помощью манипулируют отдельными лицами или группами людей, поверивших в подлинность и достоверность поддельного изображения, видео или текста. Независимо от того, использовали киберпреступники ИИ или нет, их намерения неизменны: ввести в заблуждение, украсть, обманом что-то выманить.
Чтобы разработать эффективные меры кибербезопасности, нужно понимать, как функционируют системы ИИ, в том числе, как они используют и, возможно, сохраняют данные. Организации продолжают генерировать инновационные идеи и внедрять ИИ для их реализации, а злоумышленники в это время применяют ИИ в своих целях, чтобы воспользоваться уязвимостями. Поскольку ландшафт угроз постоянно развивается вместе с развитием самого ИИ, организациям следует обеспечить проактивную защиту внедряемых решений ИИ.
OWASP дает дополнительные рекомендации для разработчиков собственных систем ИИ:
Дополнительные сведения и техническую информацию вы найдете в обзоре OWASP по безопасности ИИ.
Генеративный ИИ (GenAI) использует возможности машинного обучения для анализа данных и творческой работы, при этом возникают новые риски. «При защите данных для машинного обучения необходимо также учитывать целостность данных при их передаче и обработке, – говорится в статье Global Cybersecurity Alliance (GCA). – Нарушение целостности данных может исказить результаты моделирования. Это может привести к неточным или предвзятым решениям с далеко идущими последствиями».
В статье предлагаются проактивные действия:
ИИ-модель (модель искусственного интеллекта) —- это компьютерная программа, обученная на наборах данных распознавать определенные шаблоны. Это позволяет системе выполнять различные задачи, например, делать прогнозы или генерировать контент, и принимать решения самостоятельно. ИИ-модели могут отвечать на запросы, отыскивать закономерности в данных, распознавать поведение и решать множество других задач. В ходе обучения ИИ-модель обычно изучает параметры (переменные), помогающие определить наилучший инференс, который модели затем выдадут.
В зависимости от того, какие у организации потребности, цели, требования комплаенса и бюджет, можно, с учетом других факторов, выбирать из широкого спектра те ИИ-модели, которые подходят вам для внедрения. Важно отметить, что у каждой ИИ-модели свой собственный уровень риска, и что следует принимать во внимание различные типы ИИ-моделей.
Большая часть наиболее широко внедренных и признанных технологий ИИ называется слабым ИИ, который разработан и обучен для выполнения конкретных задач, чаще всего в рамках одной области знаний Слабый ИИ используют, например: текстовые чат-боты на порталах поддержки клиентов, виртуальные помощники, такие как Siri или Google Assistant, и программы для определения языка с функцией автоматического перевода.
По определению IBM Data and AI Team, существуют две функциональные категории слабого ИИ:
Эти системы ИИ не имеют памяти и опираются только на ту информацию, которую получают в настоящий момент. Они могут активно взаимодействовать с окружающей средой и пользователями, но не запоминая полученные данные, не могут использовать полученный опыт и совершенствоваться. Рекомендации по контенту, встроенные в платформы потокового вещания и социальных сетей, а также инструменты, предназначенные для предиктивного анализа данных в режиме реального времени, используют ИИ типа реактивная машина.
У этих систем ИИ есть память, поэтому они могут использовать как текущие данные, так и прошлый опыт для принятия оптимальных решений. «Ограниченность» заключается в том, что предоставленные вами данные не хранятся бесконечно долго, то есть память, по сути, кратковременная. Тем не менее полученные данные используются для постоянной оптимизации результативности и возможностей системы. Иными словами, окружающая среда и полученная информация помогают обучить этот ИИ, как лучше реагировать. Кстати, виртуальные помощники тоже относятся к этой категории.
Модели слабого ИИ широко применяются на практике, наряду с этим большое внимание, а также крупные инвестиции, привлекают модели генеративного ИИ (GenAI), который в англоязычной литературе часто называют frontier AI. Это еще более продвинутые, экспериментальные и перспективные модели ИИ. Как следует из самого названия, генеративный ИИ предназначен для генерирования контента либо на основе запросов, либо с использованием имеющихся данных. Яркие примеры использования моделей GenAI — GPT-4 и Google Gemini Ultra.
Отчет 2024 г. от Стэнфордского университетаArtificial Intelligence Index представил такие данные: стоимость обучения моделей GenAI достигла «беспрецедентного уровня», на один только только Google Gemini Ultra потрачено 191 млн долл. США. Кроме того отмечается, что промышленность опережает науку в области исследований ИИ. В 2023 году промышленные предприятия разработали 51 значимую модель машинного обучения, в то время как академические круги — лишь 15 моделей. Совместные усилия привели к созданию 21 значимой модели. В отчете также говорится, что, несмотря на сокращение частных инвестиций в 2022 году, объем финансирования GenAI вырос до 25,2 млрд долл. США, и все основные игроки [...] сообщили о раундах привлечения значительных средств.
«Традиционный слабый ИИ отлично справляется с распознаванием шаблонов, а генеративный — с их созданием. Традиционный ИИ анализирует данные и сообщает вам, что он видит, а генеративный ИИ использует те же данные для создания чего-то совершенно нового», — резюмирует Бернард Марр (Bernard Marr) в в своей книге The Difference Between Generative AI and Traditional AI: An Easy Explanation for Everyone (Forbes). «Как традиционный, так и генеративный ИИ играют важную роль в формировании нашего будущего, они оба открывают перед нами уникальные возможности. Использование этих передовых технологий будет иметь решающее значение для компаний и частных лиц, которые пытаются вырваться вперед в условиях стремительно меняющего цифрового ландшафта».
Набор пошаговых инструкций, предназначенный для решения проблемы или выполнения задачи. Алгоритм задает порядок действий, которые выполняет компьютер.
Это подраздел машинного обучения, суть которого в том, чтобы построить некий алгоритм, который позволял бы обучаться на больших объемах данных подобно нейросети человеческого мозга. «Глубокое» намекает на большое количество слоев, в которые организованы искусственные нейроны. Глубокое обучение отлично справляется с распознаванием изображений и речи, обработкой естественного языка и с распознаванием более сложных шаблонов.
Это системы, которые на основе восприятия окружающей среды могут автономно принимать решения. ИИ-агент использует датчики для сбора информации и алгоритмы для принятия решений, выполнения действий и оценки их последствий. Агент со временем может обучаться и приспосабливаться к обстановке.
Это контент, созданный или обработанный с помощью методов ИИ, например, глубокого обучения. К нему относятся сгенерированные изображения, видео и аудио, которые имитируют элементы реального мира, размывая грань между подлинностью и подделкой.
LLM — это ИИ-модели с миллиардами параметров, например GPT-4, обученные на больших наборах текстовых данных для понимания и генерации текста, подобного написанному человеком. LLM позволяет выполнять различные задачи и приложения, связанные с обработкой естественного языка. Для современных LLM-моделей в основном используется архитектура трансформеров.
Обычно это обученные на огромном наборе данных модели глубокого обучения, которые могут стать основой приложений для решения широкого спектра задач без специальной подготовки. LLM также относятся к базовым моделям, которые применяются для языка, кода, изображений, аудио, или могут быть мультимодальными, то есть обрабатывать несколько типов данных одновременно, например: текст, видео и изображения. Базовые модели также можно настраивать для специализированных приложений, типа чат-ботов.
Исследования по теме
Статьи по теме