Inteligência Artificial (IA) é uma tecnologia que capacita computadores e máquinas a imitar habilidades humanas, como aprendizado, compreensão, resolução de problemas, tomada de decisão, criatividade e ação independente.
As organizações utilizam IA para impulsionar a inovação, capacitar suas equipes e otimizar operações de diversas maneiras. Dependendo de como é implementada, os recursos de IA são frequentemente reforçadas com análises preditivas, machine learning (ML) e outras funcionalidades. Os casos de uso da IA incluem, mas não se limitam a:
O hardware que usamos para impulsionar a inovação, otimizar processos e gerenciar operações diárias está mudando. Arquiteturas avançadas, como máquinas de conjunto reduzido de instruções (RISC) — comumente conhecidas como desenvolvimento ARM — e arquiteturas de conjunto complexo de instruções (CISC) como x86, estão desempenhando papéis críticos na indústria de computação. Com a Apple, Microsoft, Broadcom, Intel e outras empresas investindo pesadamente em tecnologias que viabilizam a IA, entramos na era dos PCs de IA. Esses sistemas são otimizados para lidar com uma ampla gama de tarefas habilitadas para IA, incluindo, mas não se limitando a, reconhecimento de voz, processamento de linguagem natural e machine learning. Hardware específico para IA acelera muitas dessas tarefas no dispositivo, permitindo inferência de IA poderosa e até treinamento em máquinas do dia a dia.
Para impulsionar o aprendizado profundo e treinar modelos de IA, as organizações estão aproveitando o desempenho e a maior capacidade de processamento oferecidos pelos centros de dados de IA. Essas são instalações que abrigam grandes quantidades de hardware, incluindo unidades de processamento gráfico (GPUs) e sistemas de aceleração de IA. Como observa um recente artigo da Forbes explorando seus recursos, esses centros oferecem “poder computacional substancial," consumindo coletivamente enormes quantidades de energia e até exigindo soluções de refrigeração de ponta.”
Os centros de operações de segurança (SOCs) podem aproveitar a IA para alocar recursos de forma mais eficiente e mitigar riscos. Por meio de aprendizado profundo, automação e outras capacidades, eles podem acelerar a identificação de riscos e as medidas de resposta, especialmente se utilizarem uma plataforma de cibersegurança que consolida soluções e integra IA para otimizar ainda mais suas operações.
Com ferramentas como ChatGPT, OpenAI e Microsoft Copilot facilmente acessíveis, os agentes de ameaça estão continuamente tentando acessar dados sensíveis. Em alguns casos, seu objetivo é direcionar ferramentas de IA para manipular seu comportamento e fazê-las operar contra seu uso pretendido. Os principais riscos de segurança em IA incluem IA desonesta, automação de fraudes e governança de dados insuficiente.
As organizações devem não apenas acompanhar, mas se antecipar aos cibercriminosos, garantindo a adoção de tecnologias de IA de forma consciente em relação aos riscos e em conformidade. Desenvolver uma compreensão mais profunda dos riscos de segurança em IA é uma parte vital dessa estratégia.
Uma política consciente dos riscos que fornece orientações sobre o uso correto da IA é um ponto de referência importante para os funcionários. Garantir que seja seguida e mantida atualizada ajudará a minimizar os riscos enfrentados pela sua organização. Ter as políticas e procedimentos adequados em vigor é essencial para estar em conformidade e manter a segurança eficaz dos dados. Explorar exemplos de reguladores federais e do setor, e trabalhar com colegas, pode ajudar a informar a elaboração da sua própria política de IA.
À medida que a tecnologia de IA generativa (GenAI) continua a avançar, os deepfakes estão se tornando cada vez mais convincentes. Com agentes de ameaça usando deepfakes para manipular indivíduos ou grupos a acreditarem que a imagem, vídeo ou texto gerado é autêntico e confiável, eles representam um risco substancial à segurança de dados. Com ou sem o uso da IA, a intenção dos cibercriminosos ao utilizar qualquer abordagem—enganar, roubar e/ou fraudar—permanece a mesma.
Compreender como as implementações de IA funcionam — incluindo como elas utilizam e potencialmente retêm dados — ajuda a informar uma resposta de cibersegurança eficaz. À medida que as organizações continuam a imaginar e inovar com IA, os atores maliciosos estão se adaptando para tirar proveito das vulnerabilidades. Com o cenário de ameaças evoluindo constantemente em conjunto com a própria IA, as organizações devem se esforçar para proteger proativamente suas implementações de IA.
Além disso, se você estiver desenvolvendo seus próprios sistemas de IA e independentemente de treinar seus próprios modelos, a OWASP recomenda o seguinte:
Leia a visão geral de segurança em IA da OWASP para obter detalhes adicionais e insights técnicos.
Com a GenAI aproveitando as capacidades de ML para análise de dados e produção criativa, novos riscos estão surgindo. “A segurança de dados em machine learning também deve considerar a integridade dos dados em trânsito e durante o processamento”, observa um artigo da Global Cybersecurity Alliance (GCA) sobre segurança de dados em ML. “A integridade dos dados comprometida pode distorcer os resultados dos modelos. Isso pode levar a decisões imprecisas ou enviesadas, com consequências potencialmente de longo alcance.”
Os passos proativos são explorados em detalhes neste artigo:
Modelos de IA são estruturas compostas por uma arquitetura e valores de parâmetros que permitem ao sistema realizar tarefas como fazer previsões ou gerar conteúdo, o que é chamado de inferência. Essas tarefas podem variar desde responder a consultas, detectar padrões em dados, reconhecer comportamentos e muito mais. Modelos de IA geralmente passam por um processo de treinamento para aprender os melhores valores de parâmetros para uma inferência eficaz.
Dependendo das necessidades, metas, requisitos de conformidade e orçamento da sua organização—entre outros fatores—uma ampla gama de modelos de IA ideais pode estar sendo considerada para implementação. No entanto, é importante notar que cada modelo de IA possui seu próprio nível inerente de risco, e também existem diferentes tipos de modelos de IA a serem considerados.
Grande parte da tecnologia de IA mais amplamente implementada e estabelecida que temos hoje é chamada de IA tradicional ou estreita. Embora possa se adaptar a consultas e/ou necessidades do usuário, ela só pode realizar tarefas predeterminadas, muitas vezes dentro de um único domínio de especialização. Exemplos de IA estreita incluem chatbots baseados em texto em portais de suporte ao cliente, assistentes virtuais como Siri ou Google Assistant, e software de detecção de idiomas com recursos de tradução automática.
De acordo com a equipe de Dados e IA da IBM, existem duas categorias funcionais de IA estreita:
Como o termo sugere, a IA de máquina reativa só pode utilizar as informações que você fornece no momento presente. Ela pode interagir ativamente com seu ambiente e usuários, mas, incapaz de memorizar o que recebe, não pode se autoaperfeiçoar. As recomendações de conteúdo integradas em plataformas de streaming e mídias sociais utilizam IA de máquina reativa, assim como ferramentas projetadas para realizar análises preditivas de dados em tempo real.
A IA de memória limitada utiliza dados passados e disponíveis no presente para oferecer uma melhor assistência. A distinção "limitada" refere-se ao fato de que ela não pode reter seus dados fornecidos indefinidamente, dependendo essencialmente da memória de curto prazo. Os dados que ela pode acessar, no entanto, são utilizados para ajudar a otimizar continuamente seu desempenho e capacidades. Em outras palavras, seu ambiente e sua entrada ajudam a treiná-la sobre como melhor responder. Assistentes virtuais se enquadram nesta categoria, por exemplo.
Enquanto a IA estreita é usada em uma variedade de implementações, os modelos de IA de fronteira—mais comumente conhecidos como GenAI—também estão recebendo muita atenção e investimento. Esses modelos são ainda mais avançados, experimentais e voltados para o futuro por design. Como o termo sugere, GenAI é projetado para gerar conteúdo, seja a partir de entradas de prompt ou acessando dados existentes. Exemplos de destaque incluem o GPT-4 e o Google Gemini Ultra.
O Artificial Intelligence Index Report 2024 da Universidade de Stanford estima que os custos de treinamento da IA de fronteira atingiram “níveis sem precedentes”, com o Google Gemini Ultra custando sozinho US$ 191 milhões. Além disso, o relatório afirma que a indústria é um impulsionador significativo da pesquisa em IA de fronteira, produzindo 51 “modelos de machine learning notáveis” em 2023, em comparação com 15 na academia. No entanto, ao mesmo tempo, 21 desses modelos surgiram de colaborações entre a indústria e a academia. O relatório também observa que, apesar da queda do investimento privado em 2022, o financiamento para GenAI disparou para US$ 25,2 bilhões, e “todos os principais players […] relataram rodadas de captação de recursos substanciais.”
“A IA tradicional se destaca no reconhecimento de padrões, enquanto a IA generativa se destaca na criação de padrões. A IA tradicional pode analisar dados e dizer o que vê, mas a IA generativa pode usar esses mesmos dados para criar algo totalmente novo,” resume o autor Bernard Marr em A Diferença Entre IA Generativa e IA Tradicional: Uma Explicação Fácil para Todos (Forbes). “Tanto a IA generativa quanto a IA tradicional têm papéis significativos a desempenhar na formação do nosso futuro, cada uma desbloqueando possibilidades únicas.” “Abraçar essas tecnologias avançadas será fundamental para empresas e indivíduos que buscam se manter à frente na nossa rápida evolução digital.”
Um conjunto de instruções passo a passo projetadas para resolver um problema ou realizar uma tarefa. Ele define uma sequência de operações que podem ser executadas por um computador.
Um subconjunto de ML onde algoritmos, inspirados na estrutura e função das redes neurais do cérebro humano, aprendem a partir de grandes quantidades de dados. “Deep” refere-se ao grande número de camadas em que esses neurônios artificiais estão organizados. O deep learning se destaca em tarefas como reconhecimento de imagem e de fala, processamento de linguagem natural e reconhecimento de padrões mais complexos.
Um sistema projetado para perceber seu ambiente e tomar ações para maximizar suas chances de alcançar objetivos específicos. Ele utiliza sensores para coletar informações e algoritmos para tomar decisões, executar ações e avaliar os efeitos, muitas vezes aprendendo e se adaptando ao longo do tempo.
Este é o conteúdo produzido ou manipulado por meio de técnicas de IA, como o aprendizado profundo. Inclui imagens, vídeos e áudios gerados que simulam de forma convincente elementos do mundo real, desfocando a linha entre autenticidade e simulação.
LLMs referem-se a modelos de IA com bilhões de parâmetros, como o GPT-4, que são treinados em grandes volumes de dados para manipular e gerar texto semelhante ao humano. Isso possibilita diversas tarefas e aplicações relacionadas à linguagem. Transformers são atualmente a arquitetura dominante para LLMs.
Esse é geralmente um modelo de aprendizado profundo treinado em um conjunto de dados amplo, que pode ser reaproveitado para diversas tarefas. Os LLMs são exemplos de modelos fundamentais, capazes de serem especializados para linguagem, código, imagens, áudio, uma combinação de modalidades ou podem ser multimodais. Modelos fundamentais também podem ser ajustados para aplicações especializadas, como chatbots.
Pesquisas relacionadas
Artigos Relacionados