IA é citada como solução para gargalos de TI e maior proteção corporativa

Ao abrir o evento CPX 360, que aconteceu na última semana, o Gil Shwed, da Check Point, empresa especializada em segurança digital, citou 2023 como o ano da virada, em que a inteligência artificial finalmente entrará em nossas vidas. Para ele, estamos diante de uma grande revolução que servirá não apenas para mudar o mercado de proteção de dados e redes, mas também a forma como as pessoas lidam com o próprio dia a dia.

Está todo mundo de olho nesse avanço, desde os executivos em cargos-chave da indústria de tecnologia até entusiastas e usuários comuns. Além disso, criminosos também se aproveitam destes recursos para aprimorar suas tácticas ofensivas, desenvolver novos golpes e maximizar o lucro, o único aspecto aparentemente imutável de toda essa fórmula, presente desde os temos em que o cibercrime era, apenas, crime.

Esse é, também, um movimento inevitável, como apontou Eric Anderson, arquiteto de segurança da empresa de inteligência em ameaças Atlantic Data Security. “Como toda tecnologia, [a inteligência artificial] vai ser usada por ambos os lados. O pior é que sempre vemos a ofensiva vindo primeiro, depois aprendemos a lidar e nos defender das novas ameaças”, afirma.

O grande foco atual, claro, está sobre o ChatGPT, o sistema de IA que funciona a partir de um chat e, enquanto vem sendo citado por curiosidades como a criação de treinos de natação ou a criação de histórias para crianças, também aparece na sugestão de códigos maliciosos e possibilidades de ataque contra redes corporativas. É a onda do momento, mas também um aspecto que, para os especialistas, não é nenhuma novidade.

“Sabemos disso há bastante tempo e usamos [tecnologias assim] em outros produtos, mas o ChatGPT tem a aplicação mais prática”, complementa Anderson, citando os usos comuns como grande facilitador. “Ele é palpável, as pessoas entendem o que é e como podem usar, ainda que não exatamente saibam como funciona.”

Ofir Israel, vice-presidente de prevenção de ameaças da Check Point, vai além e adiciona um aspecto existencial à discussão. Enquanto concorda que os conceitos colocados em prática atualmente sobre inteligência artificial não são novas tecnologias, ele aponta que seu uso mudou a forma como as pessoas encaram esse recurso. “Antes, usávamos [a IA] para encontrar a verdade, obter positivos ou negativos e excluir os falsos resultados. Hoje, ela pode ser usada para criar ou prevenir algo”, aponta.

Para Anderson, o uso de avanços assim no campo da cibersegurança intensificou o que sempre foi o grande desafio dos profissionais da área: permanecer à frente. Pode ser, também, o caminho para resolver alguns obstáculos que sempre permaneceram no caminho de uma proteção plena. A resposta, para o especialista, está na própria pergunta.

Inteligência (artificial) para prever ameaças

Há anos, a adoção de plataformas de inteligência é citada como fundamental, principalmente, para as grandes corporações que permanecem como o principal alvo dos cibercriminosos. O mesmo, aponta Israel, vale também para o uso de sistemas de IA, que são capazes de analisar grandes fluxos de dados e agir de acordo com os modelos indicados, monitorando sistemas e entendendo em tempo real os perigos enfrentados por cada organização.

O especialista cita o uso de modelos generativos como a grande chave do uso atual de IA no mercado de cibersegurança. Além disso, ele aponta não estar falando de algo do futuro, mas sim, um elemento que tem aplicação prática e já está disponível em soluções disponíveis para o mercado corporativo. “O foco atual está na melhoria e exatidão dos resultados, além de um processamento mais veloz de grandes volumes de dados”, acrescenta.

E da mesma forma que uma interface como o ChatGPT pode servir para uma conversa, criar códigos e indicar treinos esportivos, os modelos generativos também podem ser usados em diferentes frentes. A IA é capaz de criar regras de acesso com base em modelos de ataque com os quais é alimentada, implementar e regular políticas de zero trust ou localizar portas abertas e vulnerabilidades que comecem a ser exploradas pelos criminosos.

Acima de tudo isso, Israel cita o uso de tecnologias assim como possível alívio para a falta de mão de obra especializada, citada como o grande gargalo das organizações modernas. Na visão do especialista, o uso de modelos analíticos e de geração de resultados tiram os altos volumes de dados e a busca constante por entendimento de tendências do caminho, enquanto permite que os administradores humanos de segurança foquem no que importa: as decisões que melhoram o caráter da estrutura de segurança como um todo.

“A tecnologia é melhor do que nós, pois é capaz de enxergar mais longe. É sempre importante escolher bem em que plataforma [a organização] vai confiar, questionar seu conteúdo e também as decisões tomadas”, complementa Anderson. Por mais que a sensação seja de desconforto semelhante ao de um episódio da série Black Mirror, o resultado pode ser, finalmente, um equilíbrio mais próximo da balança entre defesa e potencial ofensivo.

É por isso que, entre modelos cada vez mais exatos na tomada de decisões, Israel também aponta a explicabilidade como um conceito procurado pelas empresas do setor. Não basta mais que a IA apenas indique o melhor caminho ou apresente relatórios de bloqueios ou medidas de proteção tomadas — é preciso que os administradores entendam como ela chegou a estes resultados.

“Como diferenciar decisões erradas das geniais?”, pergunta. Segundo Israel, a ideia é como a de uma entrevista de emprego, com foco na precisão e assertividade dos resultados apresentados anteriormente, além das experiências passadas e sua eficácia. “Analisar a forma como a inteligência artificial chega aos resultados aumenta a confiabilidade das soluções e permite ajustes finos que, no final, podem fazer toda a diferença.”


Fonte: CANALTECH