A Inteligência Artificial (IA) tem inúmeros benefícios: agiliza processos, aumenta a assertividade, reduz custos e muito mais. Mas, como tudo na vida, precisa ser utilizada da forma correta e com segurança.
De acordo com uma pesquisa recente da Cisco, 60% dos consumidores estão preocupados com a forma como as empresas estão usando seus dados pessoais para IA, enquanto 65% perderam a confiança nas organizações por conta do uso dela, pelo mesmo motivo.
Com os usuários cada vez mais conectados, às tendências de IA, IoT (Internet das Coisas, do inglês Internet of Things) e Cloud Computing (Computação em Nuvem) reforçam, ainda mais, a preocupação com a segurança dos dados.
Coletar o maior número de informações pensando, exclusivamente, na personificação dos serviços aos consumidores, pode abrir as portas das companhias a inúmeros outros riscos de cibersegurança e privacidade.
Frente a tal cenário, também notamos movimentações governamentais e privadas para impulsionar a aplicação de legislações e políticas específicas, com o intuito de assegurar o uso responsável da tecnologia.
Qual é o cenário da privacidade de dados e da Inteligência Artificial no Brasil?
Atualmente, está em debate e tramitação no Senado um projeto de lei para o uso dessa tecnologia. Ainda que possa existir um longo caminho até que as diretrizes sejam obrigatórias, outras normas setoriais já abrangem aspectos relacionados à IA.
Um exemplo claro disso é a LGPD (Lei Geral de Proteção de Dados), que visa proteger os titulares de dados quanto ao uso de seus dados pessoais por agentes de tratamentos, inclusive no que se refere à coleta de informações que não sejam compatíveis com o objeto final do tratamento de dados por essas organizações. Ela prevê, inclusive, penalidades severas para eventuais incidentes com os dados pessoais dos titulares.
Quais são os riscos que esse cenário oferece?
As ameaças em relação à privacidade de dados vão além do que muitos imaginam, segundo um relatório recente da Morningstar, empresa de pesquisa independente.
Uma violação de dados, por menor que seja, pode causar estragos consideráveis para uma organização. E os riscos relacionados à IA não são os únicos da lista de preocupações. Manchas à reputação, perda de clientes, sanções e multas pelas legislações vigentes, são alguns outros exemplos. E não deixamos de fora a possibilidade de encerramento do negócio em questão.
Estratégias para minimizar os riscos e preservar a privacidade nos sistemas de IA
A boa notícia é que, atualmente, não faltam conhecimento e tecnologia para nos anteciparmos aos perigos e aos vazamentos das informações. Além disso, estamos amparados por leis que visam à proteção dos dados.
Ainda assim, é indispensável que medidas de proteção sejam aplicadas pensando além dos receios dos consumidores, ou seja, de forma que passem a fazer parte dos valores da organização, como uma das metas de negócio. Veja quais são os tópicos principais para a sua estratégia:
- Criptografia: mantenha as informações – que a sua empresa coleta, armazena e trata- longe da atuação de cibercriminosos, com o uso de criptografias fortes.
- Mascare suas informações: ao invés de gerar o aprendizado do seu algoritmo por meio de dados reais, utilize informações fictícias para tal. Desta forma, é possível evitar que aspectos confidenciais sejam expostos indevidamente.
- Invista em treinamentos: essa premissa serve para toda e qualquer estratégia de segurança da informação. Promova treinamentos regulares para os colaboradores, incluindo avaliação de efetividade e atualização das novas medidas de segurança, sempre que necessário.
- Audite o algoritmo: utilize soluções robustas para rastrear e auditar, frequentemente, a sua tecnologia.
A Leadcomm pode te ajudar nesta missão!
Conte com a Leadcomm para te ajudar com o diagnóstico completo e a indicação da melhor abordagem para lidar com a segurança dos dados gerados pela Inteligência Artificial na sua companhia.
Quer saber mais? Fale com os nossos especialistas!
Comments are closed.
Recent Comments