search
BlogGeral

Privacidade de dados na era da IA: desafios e p...

Privacidade de dados na era da IA: desafios e possíveis caminhos

Atualizado em 17 de abril de 25 | Geral  por

Logo upLexis.
Redação upLexis

Imagem de pessoa utilizando um laptop e símbolo da segurança da informação, representando a privacidade de dados na era da IA.

Em 2020, a LGPD entrou em vigor com a promessa de implementar a proteção de dados no Brasil, incluindo medidas como a anonimização dos dados pessoais. No entanto, neste momento desafiador em que vem à tona a questão da privacidade de dados na era da IA, é um fato que a inovação e as vantagens trazidas por essa tecnologia têm como “efeito colateral” a dificuldade de manter a conformidade com essa lei brasileira e outros regulamentos. 

Para se ter uma ideia, alguns modelos de inteligência artificial já são capazes de reverter a anonimização de dados, identificando os indivíduos novamente e expondo informações sensíveis. Em certa medida, a LGPD contempla aspectos relacionados à IA, mas ainda restam lacunas importantes para reduzir o grau de vulnerabilidade e o risco de exposição de dados pessoais.

Por que a privacidade é um grande “x da questão”? 

A adoção ampla e sem regulamentação da IA desperta preocupações quanto à privacidade e aos Direitos Fundamentais. Para que os avanços da inovação sejam plenamente aproveitados, é essencial estabelecer um ambiente de confiança com o mercado e os diversos públicos envolvidos, bem como um uso ético e transparente dos dados.

A preocupação se amplia ainda mais quando o assunto é a IA generativa, que opera a partir de modelos de linguagem em larga escala. Isso porque as falhas no design, vieses nos algoritmos, vulnerabilidades de segurança e riscos de discriminação são entendidos como os desafios mais relevantes. Além disso, a complexidade dos sistemas levanta questionamentos sobre transparência e proteção dos dados pessoais

O Regulamento Geral de Proteção de Dados (GDPR) da União Europeia, por exemplo, contém disposições específicas sobre o tratamento automatizado de informações. Nos Estados Unidos, algumas leis estaduais de proteção ao consumidor também abordam o uso da automação, embora de forma mais tímida. Paralelamente, novas normativas dedicadas exclusivamente à IA estão em desenvolvimento, como o AI Act recentemente adotado pela União Europeia.

O AI Act estabelece diretrizes de privacidade, transparência e equidade, exigindo certificações que atestem a conformidade dos sistemas de IA. Vale frisar ainda que, nos Estados Unidos, diversos estados têm adotado regulamentações específicas para ampliar a transparência na utilização de algoritmos.

O objetivo dessas iniciativas é fazer com que a IA respeite os Direitos Fundamentais e fundamente suas decisões, permitindo também que os usuários compreendam o funcionamento da IA de maneira clara.

Um estudo chamado de Privacidade em um Novo Mundo de IA,  realizado pela KPMG, também traz reflexões importantes sobre o tema. A pesquisa aponta que, embora 85% das pessoas reconheçam os benefícios da IA, 61% ainda hesitam em confiar plenamente na tecnologia. As principais inquietações giram em torno da tomada de decisões automatizadas e da percepção de que os riscos superam as vantagens.

Conforme dados divulgados pelo portal da Febraban Tech, o Brasil é o maior usuário de IA na América Latina, com 63% de empresas fazendo uso desta tecnologia, quando a média na região é de 47%. Os setores financeiro, indústria manufatureira e o varejo são os que mais utilizam ferramentas de IA. 

Diante deste cenário, é imprescindível a regulação específica voltada para a proteção da privacidade de dados na era da IA, com mecanismos capazes de acompanhar a velocidade dos algoritmos.

Leia também 👉 Segurança da informação: como evitar vazamento de dados?

A regulação da IA e a privacidade de dados: um debate em curso

Há uma questão central nesse debate sobre a preservação da privacidade em tempos IA: as próprias leis de privacidade existentes. A dúvida que paira no ar é se as leis são suficientes para disciplinar os impactos da IA ou se regulamentos específicos serão necessários. Alguns especialistas argumentam que as regras atuais não são adequadas, pois os profissionais que formulam essas leis não têm a expertise necessária para compreender a complexidade da IA e suas implicações jurídicas. Apesar dessas limitações, há quem entenda que uma legislação de privacidade bem estruturada é indispensável para a efetiva mitigação dos riscos advindos do uso da tecnologia.

Nesse sentido, uma das estratégias mais eficazes para lidar com essas questões é a adoção do conceito de Privacy by Design, que incorpora a privacidade como elemento fundamental desde a concepção dos sistemas. Isso exige uma análise constante dos riscos em todas as etapas do desenvolvimento e implementação da IA, zelando assim pela conformidade com as normas vigentes.

Outro ponto importante é que, para avaliar como a regulação deve evoluir, é essencial entender que IA envolve sistemas avançados. Um exemplo são os algoritmos de aprendizado de máquina, que realizam tarefas antes dependentes exclusivamente da cognição humana, ou seja, trata-se de uma revolução tecnológica expressiva, mas que carrega desafios substanciais.

Dinâmica dos algoritmos é grande obstáculo 

O caráter dinâmico dos algoritmos de IA é um dos maiores obstáculos à regulação. A forma como os algoritmos são utilizados, na grande maioria das vezes, não é transparente, o que dificulta a compreensão de suas lógicas de funcionamento. Além disso, a tomada de decisões automatizadas pode ferir direitos individuais, reduzindo o controle dos usuários sobre a forma como suas informações são utilizadas.

Outro ponto de atenção é a responsabilidade legal sobre o impacto da IA. O desenvolvimento acelerado da tecnologia, aliado às altas expectativas de retorno financeiro, pode levar à implementação de soluções sem avaliações criteriosas de riscos. Para mitigar esses efeitos, medidas corretivas são necessárias, embora nem sempre sejam fáceis de aplicar na prática.

A abrangência dos desafios de privacidade de dados na IA

É importante ter em mente que os desafios que enfrentamos abrangem tanto a coleta, quanto o processamento de dados. Isso porque a obtenção de informações pode acontecer de forma não consensual, como ocorre através do chamado “scraping” (extração de dados online sem permissão) ou dentro dos limites das leis vigentes, embora muitas dessas normas não sejam específicas.

Além disso, após o processamento de dados, há riscos de geração de novas informações, bem como de tomada de decisões automatizadas e ainda de ampliação de práticas de vigilância. Isso significa que a IA tem acesso a dados sensíveis, expondo dados pessoais cujos titulares não desejam compartilhar. Outra questão relevante é que os algoritmos podem reforçar vieses preexistentes, comprometendo a imparcialidade de processos decisórios.

Barreiras na coleta e na geração de dados

As exigências regulatórias são um obstáculo para a obtenção de dados para o treinamento de modelos de IA, impactando especialmente pequenas empresas que não possuem bases extensas de informações pré-existentes. Além disso, a impossibilidade de coletar dados públicos sem uma justificativa legal é um fator que prejudica as pesquisas e o desenvolvimento de soluções inovadoras.

A IA também gera dados a partir de inferências, podendo causar exposição de informações sensíveis sem que os usuários tenham compartilhado esses detalhes conscientemente. Como as leis de privacidade tradicionais regulam expressamente a coleta direta de dados, a geração de informações por IA ainda é um ponto pouco regulamentado, elevando ainda mais os riscos para os usuários.

Leia também 👉LGPD: princípios fundamentais no tratamento de dados pessoais

Qual é o futuro da privacidade de dados na era da IA?

Atualmente, existem lacunas nas regulamentações de privacidade. Por outro lado, o avanço das tecnologias exige uma revisão das normas atuais e, possivelmente, a criação de novos marcos legais que ofereçam proteção efetiva ao direito de privacidade, sem, contudo, obstaculizar a inovação.

Neste contexto, um dos pontos mais polêmicos é o modelo de consentimento para o uso de dados. Em regra, as grandes empresas revisam suas políticas de privacidade periodicamente para contemplar o uso de informações na capacitação de algoritmos, gerando preocupações sobre a clareza e validade desse consentimento. A GDPR, por exemplo, é mais rigorosa do que a LGPD, uma vez que prevê a necessidade de autorização expressa dos usuários. No entanto, na prática, muitas pessoas aceitam os termos sem compreender plenamente as implicações.

Conclusão

A evolução da Inteligência Artificial exige um repensar das normativas de privacidade e proteção de dados. Isso porque, muito embora as leis atuais tragam alguns mecanismos de controle, elas precisam ser adaptadas para lidar com os novos desafios impostos. 

Nesse cenário, o equilíbrio entre inovação e a segurança da informação será fundamental para construir um ambiente regulatório voltado para o respeito ao direito de privacidade de dados. 

E aí, gostou do conteúdo? Esperamos que essas informações ajudem a fomentar essa reflexão tão necessária para os nossos tempos! Aproveite para conferir nosso artigo sobre a importante relação entre compliance e mineração de dados. Até a próxima!