Outro risco é que muitas ferramentas de IA das sombras, como as que utilizam o ChatGPT do OpenAI ou o Gemini do Google, o padrão de treinamento em todos os dados fornecidos. Isso significa que dados proprietários ou sensíveis já podem se misturar com os modelos de domínio público. Além disso, os aplicativos de IA Shadow podem levar a violações de conformidade. É crucial para as organizações manter controle rigoroso sobre onde e como seus dados são usados. As estruturas regulatórias não apenas impõem requisitos rígidos, mas também servem para proteger dados confidenciais que podem prejudicar a reputação de uma organização se for manuseados.
Os administradores de segurança da computação em nuvem estão cientes desses riscos. No entanto, as ferramentas disponíveis para combater a AI das sombras são grosseiramente inadequadas. As estruturas de segurança tradicionais estão mal equipadas para lidar com a natureza rápida e espontânea da implantação de aplicativos de IA não autorizada. Os aplicativos de IA estão mudando, o que altera os vetores de ameaças, o que significa que as ferramentas não podem obter uma variedade de ameaças.
Colocando sua força de trabalho a bordo
Criar um escritório de IA responsável pode desempenhar um papel vital em um modelo de governança. Este escritório deve incluir representantes, segurança, legal, conformidade e recursos humanos para garantir que todas as facetas da organização tenham informações na tomada de decisões sobre as ferramentas de IA. Essa abordagem colaborativa pode ajudar a mitigar os riscos associados aos aplicativos de IA da sombra. Você deseja garantir que os funcionários tenham ferramentas seguras e sancionadas. Não proíba a IA – ensine as pessoas como usá -lo com segurança. De fato, a abordagem “proibição de todas as ferramentas” nunca funciona; Abaixa o moral, causa a rotatividade e pode até criar questões legais ou de RH.