Use esse botão para alterar entre dark mode e light mode

5 etapas para desenvolver uma abordagem ética de IA

A inteligência artificial (IA) oferece um enorme potencial — desde o aumento da produtividade até a melhoria na gestão da informação. No entanto, como a IA “aprende” a partir dos dados que fornecemos, é fundamental desenvolver uma abordagem ética para o uso dessa tecnologia. Quando a IA é adotada sem uma estratégia orientada por princípios éticos e de governança, há riscos de resultados imprecisos, violações de privacidade e comprometimento da execução dos projetos. 

Neste artigo, abordaremos a importância da ética em IA. Em seguida, apresentaremos cinco etapas que ajudarão a estruturar uma abordagem personalizada para a adoção da IA.  

O que é ética em IA? 

A ética em IA garante que a inteligência artificial seja desenvolvida e utilizada de maneira justa, transparente, responsável e alinhada aos valores da sociedade. Desenvolver uma abordagem ética para a IA envolve implementar padrões de governança, práticas de privacidade e comunicar esses princípios aos stakeholders. 

Por que uma abordagem ética de IA é importante 

O uso de IA impõe riscos reputacionais e estratégicos às empresas. Os clientes têm demonstrado preocupação com o uso de seus dados pessoais em ferramentas de IA, especialmente quando os objetivos não são claros. Caso não tenham confiança de que uma empresa utiliza tecnologia e dados de forma ética, buscarão outras empresas.

Um dos motivos dessa incerteza pública é que os modelos de IA nem sempre são transparentes e, muitas vezes, não explicam o raciocínio por trás de seus resultados. Um cenário que se evidencia especialmente nas soluções de IA generativa. Grandes empresas de tecnologia enfrentam atualmente ações judiciais sob a acusação de coleta indevida de dados pessoais na internet, sobretudo em redes sociais. Outras têm enfrentado uma fiscalização regulatória sobre supostas violações de direitos autorais, proteção de dados e cibersegurança. Assim, qualquer organização que pretenda adotar tecnologias de IA deve considerar cuidadosamente esses riscos e priorizar a ética.

Como desenvolver uma abordagem ética de IA 

Etapa 1: Use dados confiáveis de fontes originais

Mais de 70% dos executivos consultados pela LexisNexis afirmaram que o uso de fontes de dados confiáveis e precisas pode aumentar o nível geral de confiança na forma como sua empresa utiliza a IA generativa. Esses dados devem ser provenientes não apenas de fontes originais e verificadas, mas também obtidos e distribuídos em conformidade com as regulamentações, com a devida autorização de editores e detentores de direitos. A aprovação dos editores deve ser solicitada antes do uso de seus conteúdos em ferramentas específicas de IA, como é o caso das soluções de IA generativa.

Etapa 2: Garanta supervisão humana

Um dos benefícios da IA é sua capacidade de gerar insights a partir de grandes volumes de dados, o que seria difícil ou impossível de realizar manualmente. Ainda assim, é essencial que os colaboradores supervisionem as fontes de dados utilizadas e revisem os resultados produzidos pela IA. Essa prática acrescenta uma camada extra de supervisão e confiança, mitigando os riscos decorrentes da natureza opaca dos chamados modelos de 'caixa-preta' da IA. Segundo o relatório da LexisNexis, 97% dos entrevistados concordam que a validação humana dos resultados produzidos por IA generativa é indispensável.

Etapa 3: Estabeleça diretrizes éticas

Para 86% dos executivos, será fundamental estabelecer diretrizes e padrões éticos para o uso da IA generativa — uma necessidade que também se estende à adoção tecnológica de forma geral.  Qualquer empresa deve ter princípios e valores éticos bem definidos e determinar como eles se aplicam ao uso de tecnologia e dados. Alguns exemplos de práticas implementadas por organizações incluem:

  • Utilizar apenas dados provenientes de fontes originais.
  • Exigir que todos os colaboradores recebam treinamento sobre ética em IA.
  • Criar um comitê para avaliar os aspectos éticos de cada proposta de uso de IA.
  • Utilizar abordagens de geração aumentada por recuperação (Retrieval-Augmented Generation - RAG, na sigla em inglês) em ferramentas de IA generativa para reduzir o risco de alucinações.

Etapa 4: Comunique com transparência

Quase três quartos (75%) dos executivos entrevistados pela LexisNexis afirmaram que maior transparência e clareza nas decisões sobre o uso da IA generativa aumentam a confiança tanto na tecnologia quanto na empresa. O CEO deve reforçar publicamente a importância da ética e divulgar as iniciativas voltadas à prevenção de riscos. Essa comunicação deve alcançar clientes, colaboradores, investidores, parceiros e até mesmo órgãos reguladores.

Etapa 5: Discuta ética com terceiros

Os esforços de uma empresa para demonstrar ética e transparência podem ser rapidamente comprometidos se algum parceiro ou fornecedor estiver envolvido em práticas consideradas antiéticas. Por isso, é importante definir altos padrões éticos para seus atuais e potenciais terceiros. Tornar isso parte do contrato pode ajudar a formalizar essas expectativas.

As empresas também devem realizar uma due diligence minuciosa em quaisquer fornecedores de dados ou tecnologia. Nosso checklist gratuito apresenta dez perguntas essenciais a serem feitas a qualquer provedor de dados ou soluções tecnológicas.

A LexisNexis promove uma abordagem ética da tecnologia, sustentada por dados confiáveis para IA e soluções de IA generativa

Com mais de 50 anos de atuação como provedora de dados, a LexisNexis mantém acordos amplos — e, em alguns casos, exclusivos — de licenciamento de conteúdo com editores em todo o mundo. Nosso objetivo é fornecer dados que impulsionem seus resultados, reconhecendo e respeitando os direitos de propriedade intelectual de nossos parceiros licenciados. Desde a aquisição até a entrega ao cliente, oferecemos dados atualizados, em conformidade com os acordos de licenciamento e as legislações aplicáveis, protegidos por rigorosas medidas de segurança e privacidade. Nossa transparência em relação aos nossos dados confiáveis que fornecemos deve transmitir a confiança necessária para que você os utilize em suas próprias iniciativas e análises de IA.

Nossa ampla cobertura de notícias, enriquecida com metadados robustos, está prontamente disponível para integração em seus projetos de IA generativa. No último ano, trabalhamos de forma responsável e transparente com nossos editores para garantir os direitos de utilização de seus dados com ferramentas de IA generativa. Nosso portfólio abrange mais de 20 mil títulos licenciados, com milhares de fontes disponíveis para uso em tecnologias de IA generativa. O conjunto de dados habilitado para IA generativa inclui conteúdo de grandes empresas do setor, como The Associated Press, McClatchy e outros.

Baixe gratuitamente o Kit de Estratégia para uma IA Confiável e descubra como sua empresa pode aproveitar as oportunidades da IA e gerenciar seus riscos com dados de alta qualidade.

BAIXE GRATUITAMENTE O Kit de Estratégia para uma IA Confiável

Entrar em contato

Email: brasil@lexisnexis.com
Téléphone: +551142809193