A Inteligência Artificial (IA) tem avançado em uma grande velocidade, oferecendo cada vez mais opções de assistentes virtuais para a sociedade e gerando interesse de adoção às mais variadas áreas.
A IA está cada vez mais presente e integrada às nossas vidas, não só pelos assistentes virtuais, mas também através dos algoritmos de recomendação, ferramentas de automação ou modelos generativos como o ChatGPT, Gemini, Copilot etc.
Entretanto, à medida que a tecnologia evolui, o nível de interações controladas por IA com seres humanos e até mesmo entre máquinas expandirá significativamente, o que, consequentemente, traz uma grande preocupação com os impactos éticos, riscos de segurança e a necessidade urgente de governança responsável.
Segundo a OutSystems, esse cenário emergente fará com que as equipes de TI dediquem seus esforços para implementar mecanismos de segurança e de governança para trazer confiança e garantir que a IA generativa (GenAI) seja implementada de forma responsável, segura e em conformidade com as normas.
Para a entidade, neste ano, um número cada vez maior de equipes de tecnologia implementará práticas de DevSecOps (desenvolvimento, segurança e operações) para gerenciar melhor os riscos e atenuar as ameaças em seus softwares. Conforme as empresas exploram o potencial da IA generativa, práticas de segurança e governança serão prioridade máxima para todos os times TI.
Pensando na importância do tema, neste artigo, vamos explorar os principais pontos de atenção relacionados ao uso da IA e como empresas, governos e sociedade podem equilibrar inovação com responsabilidade.
A Revolução da Inteligência Artificial
Nos últimos anos, a IA deixou de ser apenas uma promessa futurista e se tornou uma ferramenta que vem transformando diversas esferas da sociedade. Hoje, principalmente nas redes sociais, os usuários comuns conseguem ter uma noção do poder e potencial da inteligência artificial devido à produção de conteúdos criativos. Mas a tecnologia vai muito além, auxiliando em:
- Diagnósticos médicos;
- Carros autônomos;
- Detecção de fraudes financeiras;
- Geração de imagens e textos;
- Decisões automatizadas em recursos humanos e crédito;
- E muito mais!
Embora a IA seja extraordinária, com vantagens e grandes possibilidades reconhecidas, além de ser uma tendência a ser adotada em diversos segmentos, tanto na esfera pública como privada, essa expansão traz consigo uma grande responsabilidade, requerendo de empresas, governos e cidadãos controle, regulamentação e debate acerca do uso e futuro da tecnologia.
Vamos compreender a seguir os desafios éticos, de segurança e de governança:
Preocupações éticas:
1 – Viés e Discriminação
Inteligências artificiais são treinadas com grandes conjuntos de dados, garantir a qualidade das informações é fundamental para não criar uma base que contenha dados com vieses e preconceitos.
Para ilustrar melhor a situação, imagine que uma empresa deseja contratar um profissional para uma vaga no departamento de TI, para isso, o RH opta por usar um sistema de recrutamento de IA que faz a seleção prévia dos candidatos para verificar a compatibilidade com a vaga. Caso os dados contenham preconceitos, a ferramenta reproduz – e até amplifica – os vieses contidos neles e pode acabar prejudicando candidatas mulheres ou de outras minorias, como pessoas LGBTQIAPN+, negras, indígenas, PcD (Pessoa com Deficiência), muçulmanas, nordestinas, entre outras.
Outro ponto crítico é o uso de IA em decisões sensíveis, como concessão de crédito, admissões escolares ou sentenças judiciais – situações essas que envolvem N variáveis e a expertise de diferentes profissionais, não podendo ser delegadas apenas a uma máquina.
Para evitar que situações do tipo ocorram, é recomendado:
- Auditoria de algoritmos;
- Diversidade nos dados de treinamento;
- Revisão humana em decisões automatizadas;
2 – Privacidade e uso indevido de dados
É de conhecimento geral que a IA depende de muitos dados para o seu treinamento, o problema: nem sempre os dados são coletados com o consentimento do usuário, ou são reutilizados para finalidades diferentes daquelas originalmente autorizadas, assim, caracterizando uso indevido.
A coleta massiva de dados pessoais por sistemas de IA levanta discussões sérias sobre o consentimento, anonimato e uso indevido das informações. Levantando a reflexão: até onde vai o direito de coletar, armazenar e processar esses dados?
Quando pensamos na combinação da IA + vigilância digital, temos um cenário em que governos e empresas podem:
- Monitorar comportamentos em tempo real (em redes sociais, no trânsito, em sites);
- Realizar reconhecimento facial e rastrear movimentos;
- Prever ações ou classificar indivíduos.
Isso levanta sérias preocupações em termos de liberdades civis, anonimato e direito à privacidade, especialmente quando feito sem transparência, critérios claros ou supervisão judicial.
Para garantir a privacidade dos usuários e o uso não indevido dos dados, a Lei Geral de Proteção de Dados Pessoais (LGPD) – Brasil – e o Regulamento Geral sobre a Proteção de Dados (GDPR) – Europa -, preveem que o usuário saiba:
- Que dados estão sendo coletados;
- A finalidade dos dados;
- Por quanto tempo serão armazenados;
- Quem terá acesso.
Entretanto, na prática, nem sempre o usuário é plenamente protegido, em que, muitas vezes, o consentimento é obtido de forma genérica, ou compulsória. Por exemplo, quando obriga o indivíduo a aceitar os termos para continuar, ou por meio de contratos longos e pouco compreensíveis.
3 – Falta de transparência (caixa-preta)
Algoritmos complexos, como os de deep learning (aprendizado profundo), funcionam como “caixas-pretas” – termo usado para descrever sistemas de IA com processos internos não tão claros, em que não é possível entender o porquê de a ferramenta ter chegado em uma determinada resposta ou resultado.
Dessa maneira, muitas vezes, nem os próprios desenvolvedores, conseguem trazer uma explicação satisfatória para esses fenômenos, já que os algoritmos são construídos com base em milhões – ou bilhões – de parâmetros ajustados automaticamente durante o treinamento com dados.
Esse tipo de fenômeno é extremamente perigoso especialmente em casos que envolvem o uso de IA em situações como:
Justiça criminal: uso de IA para prever reincidência de crimes, sem que os acusados saibam quais critérios influenciaram a decisão;
Concessão de crédito ou seguro: quando uma pessoa é recusada, mas não consegue saber o porquê, ou se a ferramenta usou critérios com vieses;
Recrutamento automatizado: como falado acima, os sistemas de triagem de currículos podem priorizar candidatos que atendem a determinados padrões enviesados, sem oferecer justificativas transparentes.
Para que o sistema de IA não fique refém de situações de caixas-pretas, é fundamental que os desenvolvedores implementem:
IA Explicável (Explainable AI – XAI): conjunto de técnicas e práticas que tem como objetivo tornar os modelos mais compreensíveis e menos propenso a erros. Para isso, pode ser usado modelos mais simples e interpretáveis, visualizações e métricas de importância das variáveis e ferramentas como LIME, SHAP ou saliency maps para verificar os fatores que influenciam a decisão;
Auditorias algorítmicas: para verificar se há vieses, erros sistemáticos ou critérios discriminatórios nos modelos;
Regulação da explicabilidade: LGPD e GDR já preveem o direito à explicação em decisões automatizadas. Enquanto a AI Act (Lei de Inteligência Artificial da União Europeia) também exige níveis proporcionais de explicabilidade conforme o risco do sistema;
Documentação e transparência técnica: práticas como “datasheets for datasets” e “model cards” permitem documentar a origem, o propósito, as limitações e os riscos dos modelos de IA.
Preocupações com segurança
1 – Riscos técnicos
Nem sempre os sistemas de IA reagem como esperado, principalmente quando operam em ambientes dinâmicos ou com dados incompletos. Por exemplo:
- Carros autônomos que interpretam mal uma sinalização e causam acidentes;
- Robôs industriais que não reconhecem a presença humana em uma área de risco;
- IA generativa que “alucina” – ou seja, inventa fatos ou informações como se fossem verdadeiras.
Além disso, muitos sistemas são vulneráveis aos chamados ataques adversariais (ou adversarial attacks) – técnicas que enganam modelos de IA, especialmente os de aprendizado de máquina (machine learning), alterando os dados de entrada de forma intencional, de modo que o sistema cometa um erro de classificação ou comportamento sem que os usuários percebam alguma mudança.
Outros riscos técnicos que também se deve ficar atento é a tomada de decisão por sistemas autônomos sem supervisão humana e a operação de vários sistemas de IA simultaneamente, como em mercados financeiros ou redes elétricas inteligentes, que podem ocasionar consequências indesejadas – principalmente em contextos de alto impacto -, e levar a falhas em cascata ou colapsos sistêmicos.
2 – Uso malicioso
A sofisticação dos modelos de IA chamou a atenção não só do mundo corporativo como também de criminosos, que passaram a contar com uma ferramenta robusta para a aplicação de golpes. Métodos como Deepfakes (edição automatizada de imagens, em que se coloca o rosto e a voz de uma pessoa no corpo de outra), fraudes automatizadas e manipulação de informações são algumas das artimanhas usadas por cibercriminosos para enganar usuários e roubar não apenas dinheiro, mas também informações pessoais e bancárias.
Diante disso, a evolução da segurança cibernética em conjunto com a IA se faz mais essencial do que nunca. É preciso garantir que os modelos não possam ser manipulados, explorados ou usados fora de controle.
3 – Criação de uma Superinteligência e perda de seu controle
Parece coisa de filmes e livros de ficção científica, mas esta é uma preocupação séria levantada por pesquisadores e debatida em comunidades de IA. Os cientistas alertam para o risco de criação de IAs superinteligentes que não compartilhem dos ideais humanos e passem a tomar decisões por conta própria.
Nomes como Elon Musk (CEO da Tesla, SpaceX, Neuralink e outras empresas) e o pesquisador Stuart Russell, autor do livro Artificial Intelligence: A Modern Approach — considerada a obra mais usada no ensino de IA no mundo -, defendem a criação de inteligências artificiais alinhadas aos interesses humanos, pois a criação de máquinas que não tenham como objetivo o bem-estar da humanidade podem trazer resultados desastrosos.
Preocupações com governança
Como regular e direcionar o uso responsável da IA?
Com o avanço veloz da inteligência artificial, a elaboração de normas, processos e instituições que orientem o uso responsável da IA se tornou uma necessidade global – e um dos maiores desafios da atualidade.
A criação de uma legislação para a inteligência artificial não é uma tarefa fácil, envolvendo uma série de questões que dificultam a criação de um estatuto que contemplem não só as particularidades da ferramenta, mas também satisfaça os desenvolvedores e usuários. Dentre os principais desafios, temos:
- Falta de um padrão global: cada país está criando a sua própria legislação, o que gera fragmentação e insegurança jurídica para empresas e desenvolvedores;
- Velocidade de inovação x tempo da regulação: a tecnologia evolui constantemente, o que faz com que as leis não consigam acompanhar a sua evolução;
- Poder concentrado em poucas empresas: muitas inovações estão sob a posse de poucas empresas privadas, que nem sempre operam com transparência.
Dentre as iniciativas que visam regulamentar a IA, temos:
- O AI Act da União Europeia, que está liderando os esforços regulatórios para classificar os riscos e exigir responsabilidades das empresas;
- A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO), a Organização para Cooperação e Desenvolvimento Econômico (OCDE) e a Organização das Nações Unidas (ONU) estão propondo diretrizes éticas e mecanismos de cooperação internacional.
- Muitas empresas de tecnologia estão criando códigos de conduta internos e estabelecendo laboratórios de ética para avaliar impactos.
Mas você deve estar se perguntando: e no Brasil? Quando o assunto é regulamentação da IA, o país ainda carece de avanços significativos, visto que ainda não temos: padrões técnicos nacionais para a tecnologia, agências reguladoras específicas e diretrizes claras para IA generativa.
Até o momento, os usuários e empresas podem contar com a LGPD, que protege dados pessoais e impõe limites ao uso automatizado, e aguardar o avanço da PL 21/2020, Projeto de Lei sobre o uso ético da IA, que está tramitando no Congresso
Contudo, é importante lembrar que para que os projetos de governança de IA deem certo, eles precisam ser multissetoriais, transparentes, inclusivos e globais, além de contar com a participação ativa de governos, empresas, academia e sociedade civil.
Conclusão: inovação com responsabilidade
A inteligência artificial é uma tecnologia que veio para ficar, lutar contra ela é em vão, visto que a sua capacidade de transformação é algo nunca visto antes e que continuará revolucionando não só o mundo coorporativo como a humanidade.
Mas isso não significa que devemos fechar os olhos, é dever de desenvolvedores, gestores, legisladores e cidadãos garantir que a tecnologia:
- Respeite direitos humanos;
- Seja auditável e transparente;
- Tenha limites e responsabilidades bem definidas.
A discussão sobre ética, segurança e governança da IA não é um obstáculo ao progresso, mas uma condição fundamental para que a tecnologia seja usada de forma justa, segura, sustentável e responsável.
A evolução da IA é inevitável, mas o caminho que ela seguirá dependerá das escolhas do coletivo – governos, empresas, pesquisadores e sociedade civil. O desafio não é conter a inovação, mas conduzi-la com consciência, empatia e visão de longo prazo.